Bloofusion
Logo Internetkapitäne Logo Internetkapitäne

Google im ersten Gang: Rich Snippets kommen gaaaaaaaaanz langsam…

27. Januar 2011 | Von in SEO | 8 Kommentare

Seit einigen Monaten haben wir ein internes Tool namens Rich Snippet Watch, das die Google-Ergebnisse nach dem Vorkommen von Rich Snippets durchwühlt. Daraus wird eine Datenbank aufgebaut, die alle Websites umfasst, für die derzeit Rich Snippets angezeigt werden.

Wenn man sich das nun jede Woche aufs neue anschaut und vor allem einen Blick auf die neuen Websites wirft, ist das schon recht ernüchternd. Ich gebe zu, dass unsere Software prinzipbedingt nicht jede deutsche Website finden kann, für die Rich Snippets angezeigt werden, aber ich glaube schon, dass wir relativ viel abdecken können.

In der letzten Woche sind ganze zwei Websites hinzugekommen, bei denen jetzt auch Rich Snippets erscheinen:

www.venere.com:

Bild

www.urlaubswerk.de:

Bild

That’s it.

Und in dieser Geschwindigkeit geht es schon seit Wochen vorwärts. Da ist für mich schon klar, dass die von Google manuell freigeschaltet werden. Und offensichtlich mag Google primär touristische Websites und eher weniger E-Commerce-Angebote, denn von denen gibt es anteilig deutlich weniger mit Rich Snippets.

Wir hatten gestern bei einem Workshop noch das Thema Rich Snippets. Soll man’s einbauen? Und schaltet Google das dann überhaupt frei? Da zweifle ich doch arg…

AdWords Anzeige-Domains nur noch in Kleinschreibung

25. Januar 2011 | Von in SEM | 4 Kommentare

Vor zwei Wochen hat Google eine Änderung bei den Anzeige-URLs angekündigt, die inzwischen umgesetzt wurde: Der Domain-Teil der Anzeige-URLs wird ab sofort nur noch in Kleinschreibung angezeigt. Aus

Mein.Beispiel.de/TolleSachen

wird also

mein.beispiel.de/TolleSachen

Die Kleinschreibung beschränkt sich also auf den Namen der Domain und eventuelle Subdomains. Pfade, sprich, alles nach dem Schrägstrich, sind nicht betroffen. Die Änderung ist wie gesagt schon umgesetzt geworden, ohne dass Werbetreibende dafür aktiv werden mussten.

Aufgeregte Diskussion

Über die Hintergründe wird schon eifrig spekuliert. Laut Google wurde herausgefunden, dass durch die Standardisierung die Klickraten gesteigert werden konnten. Werbetreibende sehen das zuweilen allerdings anders, da führende Großbuchstaben die Lesbarkeit erleichtern und sich in der Vergangenheit positiv auf Klickraten ausgewirkt haben.

Auf SearchEngineWatch wird spekuliert, Google wolle mit der Maßnahme vielleicht Bandbreite und Serverplatz sparen – weil Großbuchstaben ja mehr Speicherplatz brauchen könnten. Ich sag da jetzt mal nichts zu ;)

Die Reaktionen auf Twitter und anderswo sind jedenfalls teilweise heftig. Manch einer scheint zu glauben, dass Großbuchstaben im Domainnamen ein extrem wichtiges AdWords-Feature waren, ohne dass man keine großartigen Anzeigen schreiben könne. Hier und da wird sogar spekuliert, dass Google dadurch Werbetreibende so sehr frustriert, dass diese aufhören, AdWords zu nutzen.

Meine Einschätzung

Ich persönlich denke, dass Google die Änderung nicht gemacht hätte, wenn es die Klickraten insgesamt beeinträchtigt hätte. Dass sich einzelne Werbetreibende über die Verwendung von Großbuchstaben nicht mehr voneinander absetzen können, sagt ja erst mal nichts über die Klickrate aller Anzeigen insgesamt aus.

Für möglich halte ich, dass der Effekt dadurch kommt, dass die Anzeigen nun den organischen Listings noch ähnlicher sind. Als jemand, der tagtäglich mit AdWords zu tun hat, kommt einem das zwar unmöglich vor, aber ein Großteil der Google-Nutzer kennt den Unterschied zwischen bezahlten und organischen Suchergebnissen ja gar nicht. Insbesondere die Anzeigen auf Premium-Positionen werden ja gerne für normale Suchergebnisse gehalten.

Was auch immer dahinter steckt: Google hat sich entschieden und die Änderung umgesetzt. Ob das jetzt gut oder schlecht ist, kann uns eigentlich egal sein, denn das ändert nichts mehr. Also warum sollte man sich über Dinge aufregen, die man nicht ändern kann? Sehen wir es doch mal so: AdWords ist um ein ganz kleines bisschen einfacher geworden. Das hatten wir auch schon lange nicht mehr.

Manche trifft es natürlich trotzdem hart, wie ich eben auf WebmasterWorld gesehen habe:

bad-news-for-pen-island

In diesem Sinne ;)

Zuwachs für das Content-Team

25. Januar 2011 | Von in Agenturleben | Keine Kommentare

Auch Julia Leutloff ist erst vor Kurzem bei uns eingestiegen. Sie fühlt sich im Bereich Content schon pudelwohl – das merkt man Ihren Texten an. Sie stellt sich hier einmal selbst vor.

“Schon seit August des letzten Jahres bin ich für Bloofusion im Content-Bereich tätig und jetzt quasi zur Praktikantin aufgestiegen.

Was für mich wirklich eine Art Aufstieg ist, denn jetzt habe ich endlich die Gelegenheit herauszufinden, wie SEO wirklich funktioniert. Saß ich vorher in meinem stillen Kämmerlein zuhause am PC und lieferte Texte rund um die Themen XYZ ab, bin ich jetzt vor Ort mittendrin, statt nur dabei – die Frauenquote bei Bloofusion hat damit einen ordentlichen Schub bekommen.

Porträt Julia Leutloff

Das Schreiben und Recherchieren an sich war mir nicht fremd, schließlich habe ich in meinem Magisterstudium gefühlte 1.000 Hausarbeiten, Essays und Seminararbeiten geschrieben (und das oft zu Themen, die weit weniger interessant waren, als die unserer Aufträge!). Nur wie man dem Ganzen auch noch ein SEO-gerechtes Outfit verpasst, wusste ich damals noch nicht.

Im Praktikum lerne ich nun, was überhaupt hinter suchmaschinenoptimierten Content steht und vor allem, wie es in der Praxis anzuwenden ist. Dank der guten Einarbeitung vom Chef und den wirklich immer sehr hilfsbereiten und mit Rat und Tat zur Seite stehenden Kollegen, bin ich, was den redaktionellen und technischen Background anbelangt, bereits nach drei Wochen ein ganzes Stück schlauer. Die böhmischen Dörfer, in denen man doch zu Anfang öfters stand, werden zunehmend kleiner und lassen sich mittlerweile überblicken. Das Tolle an der Arbeit ist, dass man wirklich immer direkt sieht, was man macht: Die Beiträge gehen auf den Websites unserer Kunden online, die Pressemitteilungen stehen bei OpenPR und die Tweets gehen live und direkt an unsere Follower raus – ein tolles Gefühl, wenn nicht alles immer in die Schublade eines Dozenten wandert …

Ich freue mich auf jeden Fall schon sehr die nächste Zeit mit der Mannschaft von Bloofusion auf großer Fahrt zu sein.”

“Man lernt das Matrosenleben nicht durch Übungen in einer Pfütze” (Franz Kafka)

Google-Keyword-Datenbank jetzt auch mit mobilen Daten

25. Januar 2011 | Von in SEO | Keine Kommentare

Ich weiß, ich weiß: Die Meldung ist schon einige Tage alt, aber ich komme erst jetzt dazu, was darüber zu schreiben.

Google bietet in seinem Google AdWords Keyword Tool jetzt auch die Möglichkeit, Suchbegriffe auf die mobile Suche zu testen. Man kann also erfragen, wie das Suchvolumen auf WAP-fähigen Endgeräten und Mobilgeräten mit vollwertigem Internet-Browser (vor allem iPhone) aussieht.

Die Art der Abfrage kann man in den “Erweiterten Optionen” einstellen:

Bild

Leider sind die Daten – wie immer beim Keyword Tool – gequantelt. Ich habe versucht, einige Suchbegriffe zu finden, bei denen das Verhältnis zwischen mobilem und stationärem Suchvolumen besonders hoch oder niedrig ist. Da findet man natürlich einiges (“öffnungszeiten” wird eher mobil, “steuerberater” oder stationär gesucht. Aber dadurch, dass die Daten gequantelt sind, vergleicht man schon ein wenig Äpfeln mit Birnen.

Das neue Upgrade ist aber auf jeden Fall sinnvoll bei unterschiedlichen Fragen:

  1. Viele Online-Shops bauen auch mobile Shops auf oder bauen ein spezielles mobiles Interface. Jetzt kann man prüfen, ob es sich bei den eigenen Produkten wirklich um solche handelt, die auch mobil gesucht werden.
  2. Muss man sich noch stärker an das mobile Suchverhalten anpassen? Ich habe insgesamt bei der Durchsicht vieler verschiedener Suchbegriffe den Eindruck, dass mobil mit weniger Wörtern gesucht wird (meist zwei Wörter). Bei der stationären Suche erscheinen auch mehr Drei-Wort-Kombinationen. Bei der mobilen Suche rückt der Long Tail also deutlich in den Hintergrund.
  3. Man kann natürlich auch die Frage beantworten, ob sich WAP-Seiten überhaupt noch lohnen oder ob man diese Besucher nicht eher zugunsten der Besucher mit vollständigem mobilen Browser ignoriert.

Na dann viel Spaß beim Testen…

Hier noch zwei Beiträge zum Thema:

503-Code anstelle von 404: So geht man mit Server-Downtime um

25. Januar 2011 | Von in SEO | Ein Kommentar

Google hat einen interessanten Blog-Post geliefert, der einige Website-Betreiber interessieren düfte: “Umgang mit der geplanten Downtime einer Website“. Es geht also um die Frage, wie man Google (und anderen Suchmaschinen) mitteilen kann, dass eine Seite zwar derzeit nicht erreichbar ist, aber in absehbarer Zeit wieder sein wird. Dann wäre es nämlich falsch, einfach einen 404-Code oder ähnliches zu liefern. Vielmehr empfiehlt Google hier einen Code 503.

In der Dokumentation auf der W3C-Website findet sich die folgende Definition für einen 503-Code:

The server is currently unable to handle the request due to a temporary overloading or maintenance of the server. The implication is that this is a temporary condition which will be alleviated after some delay. If known, the length of the delay MAY be indicated in a Retry-After header.

Und genau so sollte man es laut Google machen:

  1. 503-Code liefern
  2. Das Feld “Retry-After” setzen, so dass Google weiß, wann der Crawler wiederkommen darf

Geplante Downtimes kommen leider gar nicht so oft vor. Meistens ist die Downtime sogar extrem ungeplant.

Aber für die, die planen können, ist es natürlich eine gute Lösung. Es setzt aber vor allem eins voraus: Dass die Downtime nicht den HTTP-Server an sich betrifft, denn den 503-Code muss ja irgendein Server ausliefern.

Ein Blick zurück: Die Internet Archive Wayback Machine in neuem Gewand

25. Januar 2011 | Von in SEO, Sonstiges | 4 Kommentare

Gut ist’s geworden, die neue Wayback Machine:

Bild

Warum schreibe ich das in einem SEO-Blog? Weil es immer gut ist, zu wissen, was auf einer Domain passiert ist, bevor man sie hatte. Wenn da vorher zwielichtige Angebote zu finden waren, dann sollte man davon vielleicht mal die Finger lassen. Und die Wayback Machine hilft einem da eben immens bei der Recherche.

Bei Google Places kann jetzt jeder Bilder hochladen

25. Januar 2011 | Von in Local Search, SEO | Keine Kommentare

Wie SEL berichtet (“Google Places Now Takes User Photo Uploads“) gibt es jetzt auch die Möglichkeit, dass Bilder in ein Places-Profil geladen werden können – und zwar nicht nur vom bestätigten Inhaber. Der Link dazu findet sich im Places-Profil:

Bild

Wir haben das natürlich direkt ausprobiert. Die Bilder erscheinen nicht direkt im Profil, sondern werden erst überprüft. Von wem, ist allerdings derzeit noch unklar.

Im Places-Admin jedenfalls werden mir die Bilder noch nicht angeboten. Es ist also derzeit noch unklar, ob Inhaber des Places-Listings bestimmte Bilder ablehnen können. Logisch wäre das eigentlich nicht, weil man bei Places ja negative Kritiken auch nicht ablehnen, sondern nur kommentieren kann (und das auch nur, wenn die Kritik über Google selber abgegeben wurde).

Ich bin mal gespannt, wie sich das entwickelt (wir bleiben dran) und wie das neue Feature genutzt wird.

Nach meinem Kenntnisstand gibt es dazu jedenfalls derzeit nur einen einzigen Google-Blog-Post:
Share your photos about Places

Und da steht relativ wenig drin…

Unser Team wächst: Jan Büchter stellt sich vor …

21. Januar 2011 | Von in Agenturleben | 2 Kommentare

Jan Büchter, seit kurzem bei uns, stellt sich hier kurz vor:

“Ich freue mich darüber, seit Januar 2011 mit an Bord von Bloofusion sein zu dürfen. Es ist etwas ganz besonderes hier zu arbeiten, das kann ich jetzt schon sagen. Alle sind zuvorkommend, hilfsbereit, nett und lustig, einfach ein super Team! Das merkt man schon, sobald man das Blooplex-Gebäude betritt, in dem wir alle schön fleißig arbeiten. Ich fühlte mich hier von der ersten Minute an pudelwohl und stelle mich also auch gerne einmal vor:

Jan Büchter ist neu im AdWords-Team

Vor meiner Zeit als Bloofusion-Mitarbeiter war ich in Münster bei der Firma Wyeth Pharma beschäftigt. Dort wurde ich als Industriekaufmann ausgebildet und war schwerpunktmäßig im Marketing eingesetzt. Zuletzt habe ich in Rheine bei der Caritas meinen Zivildienst geleistet.

Ich bin neu im Bereich des Suchmaschinen-Marketing und werde zurzeit von unserem AdWords-Spezialisten Martin angelernt. Ich muss sagen, dass mir dieser Bereich sehr gut gefällt und war überrascht wie umfangreich dieses Thema sein kann. Seit einigen Monaten lese ich mich nun in die Thematik ein und es begeistert mich immer mehr. Vor allem die tägliche Praxisarbeit erfreut mich: Zu sehen, wie meine Umsetzungen nennenswerte Erfolge in Form von Conversions mit sich bringen und Ideen anfangen, Früchte zu tragen. Ja, Erfolg messen zu können und daraus weitere Optimierungen abzuleiten, macht echt Spaß und spornt mich an, von Tag zu Tag bessere Leistungen zu bringen – ganz im Sinne unserer Kunden und letztendlich auch im Interesse von Bloofusion.

Schließen möchte ich diesen “Dialog” mit folgendem Satz:

Ich bin gespannt, was kommen mag, bin bereit für neue Herausforderungen (in diesem Falle Google-AdWords) und freue mich auf die Zusammenarbeit mit meinen überaus netten Kollegen. :-)”

Das Geheimnis des Qualitätsfaktors

20. Januar 2011 | Von in SEM | 23 Kommentare

Was bisher geschah

Dieser Post ist der vierte und entscheidende Teil einer Serie, in der das Geheimnis des AdWords-Qualitätsfaktors ergründet werden soll. Bisherige Posts:

  1. Das Qualitätsfaktor-Puzzle
  2. Google AdWords und die Qualität
  3. Mit dem Qualitätsfaktor zur Gewinnmaximierung

Im ersten Post ging es darum, dass es keinen allgemeinen Konsens gibt, wozu der Qualitätsfaktor eigentlich gut ist. Es ist ein bisschen so, als hätte Google für sich eine abstrakte Formel für das, was Qualität ist und Werbetreibende müssten eben damit leben. Der zweite Post zeigte anhand von einigen Beispielen, dass bei Google der Gewinn im Vordergrund stehen dürfte – auch, wenn er zu Lasten der Qualität geht. Die Idee, dass der Qualitätsfaktor tatsächlich zur Sicherung der Qualität (auf Kosten von Gewinn) dienen soll, wurde deshalb als geschicktes Marketing von Google angesehen und verworfen.

Im dritten Post wurde die Theorie, dass Google in erster Linie Gewinn machen möchte, konsequent weiterverfolgt. Die Anzeigenauktion rückte in den Mittelpunkt – jenes Verfahren, in dem täglich millionenfach festgelegt wird, in welcher Reihenfolge Anzeigen bei Google eingeblendet werden. Die Frage lautete, wie die Anzeigenauktion funktionieren müsste, damit Google den meisten Gewinn macht. Die einzige Schraube, an der Google dabei drehen kann, ist der Qualitätsfaktor. Hier muss der Qualitätsfaktor der Klickrate entsprechen, damit das für Google bestmögliche Ergebnis erzielt wird. Am Ende des letzten Posts stand also:

Qualitätsfaktor = Klickrate

Widerspruch?

Es ist zunächst einmal wichtig, klarzustellen, dass an der folgenden Aussage gar kein Zweifel besteht: Wenn der Qualitätsfaktor mit der Klickrate übereinstimmt, bringt dies Google den meisten Gewinn. Der Beweis dafür findet sich nicht nur im letzten Post: Bevor der Qualitätsfaktor 2005 eingeführt wurde, hat Google stattdessen die Klickrate in genau der gleichen Weise verwendet. Die Anzeigenreihenfolge wurde mit der Formel Gebot x Klickrate bestimmt, heute heißt es Gebot x Qualitätsfaktor.

Ich weiß, das klingt abstrus und widersprüchlich: Wenn die Formel früher schon optimal war und sich dann geändert hat, dann muss Google ja jetzt ein anderes Ziel als Gewinnmaximierung verfolgen. Oder aber Google hat überhaupt nichts verändert und uns auf ganzer Linie hinters Licht geführt.

Die Natur der Klickrate

Doch so einfach ist es nicht. Ein näherer Blick auf die banal erscheinende Klickrate bringt Licht ins Dunkel.

Wenn Google die Reihenfolge der AdWords-Anzeigen festlegt, müssen zwei Dinge beachtet werden: Wie viel bringt die Anzeige pro Klick und wie viele Klicks bringt die Anzeige. Dafür habe ich im letzten Post zwei Begriffe verwendet: Gebot und Klickrate.

Doch die Klickrate ist eigentlich nicht die richtige Größe, denn sie bezieht sich auf die Vergangenheit. Die Klickrate ist ganz einfach die bisherige Anzahl der Klicks geteilt durch die bisherige Zahl der Impressionen.

Wenn Google eine Suchanfrage bekommt und dafür die Reihenfolge der Anzeigen festlegt, dann geht es aber gar nicht um die Vergangenheit: Es geht darum, ob die Anzeigen hier und jetzt angeklickt werden. Es geht um die unmittelbare Zukunft. Bei der Festlegung der Reihenfolge geht es nur um diese eine Impression für die aktuelle Suchanfrage. Wird darauf auch ein Klick folgen oder nicht? Die Klickrate hat damit erst mal wenig zu tun – hier geht es um die Klickwahrscheinlichkeit.

Wo ist der Unterschied?

Den Unterschied zwischen Klickrate und Klickwahrscheinlichkeit kann man sich sehr einfach am Beispiel eines Münzwurfs verdeutlichen. Kopf oder Zahl, beides hat die gleiche Wahrscheinlichkeit, nämlich 50 %. Diese Wahrscheinlichkeit steht fest und ändert sich nie.

Wenn wir die Münzwürfe zählen, bei denen am Ende der Kopf oben liegt, und durch die Gesamtzahl der Würfe teilen, dann erhalten wir eine “Kopf-Rate”. Bekommen wir also ein Mal Kopf bei zwei Würfen, dann haben wir eine “Kopf-Rate” von 50 %. Das entspräche dann der “Kopf-Wahrscheinlichkeit”, denn die liegt ja auch bei 50 %.

Es könnte aber auch sein, dass wir bei zwei Würfen zwei Mal Kopf bekommen. Dann hätten wir eine Kopf-Rate von 100 %. Die “Kopf-Wahrscheinlichkeit” bleibt aber unverändert bei 50 %.

Genauso verhält es sich mit Klickrate und Klickwahrscheinlichkeit: Nur weil eine Anzeige mit zwei Impressionen schon einen Klick und damit eine Klickrate von 50 % hat, bedeutet das noch lange nicht, dass sie auch in Zukunft eine Klickrate von 50 % haben wird. Wenn Google also eine Vorhersage über die Zukunft machen will, wird die reale Klick-Wahrscheinlichkeit benötigt.

Nun ist die Bestimmung der Klick-Wahrscheinlichkeit nicht ganz so einfach. Natürlich besteht ein Zusammenhang zwischen der gemessenen Klickrate und der Klickwahrscheinlichkeit. Allerdings kann man nicht einfach die Klickrate nehmen und sagen, die Wahrscheinlichkeit sei die gleiche.
Nehmen wir das Münz-Beispiel, wo wir zwei Mal Kopf und damit eine Rate von 100 % hatten. Wenn wir nun annehmen, dass die Wahrscheinlichkeit entsprechend auch bei 100 % liegt und all unser Geld auf Kopf setzen, könnten wir eine böse Überraschung erleben.

Auf den ersten Blick könnte man glauben, dass sich Rate und Wahrscheinlichkeit recht schnell annähern. Denn natürlich kann man nach zehn Münzwürfen bessere Rückschlüsse auf die Wahrscheinlichkeit ziehen als nach zwei. Allerdings ist es auch nach zehn Münzwürfen recht unwahrscheinlich, dass tatsächlich genau die Hälfte davon Kopf zeigen. Umgekehrt folgt, dass, selbst wenn fünf von zehn Kopf zeigen, man noch lange nicht sagen kann, dass die Wahrscheinlichkeit bei 50 % lag.

Bevor das jetzt zu kompliziert wird, verdeutliche ich das Dilemma lieber an ein paar Zahlen und bitte darum, mir diese zu glauben. Die folgende Tabelle zeigt die Zahl der Münzwürfe, die Zahl der Kopf-Würfe und die Kopf-Rate (immer 50 %). Die nächsten beiden Zahlen geben an, in welchem Bereich die Kopf-Wahrscheinlichkeit (WS) vermutlich liegt. Ein Lesebeispiel: Bei zehn Würfen, von denen fünf Kopf ergeben, liegt die Kopf-Rate bei 50 %. Die Wahrscheinlichkeit liegt dann vermutlich irgendwo zwischen 19 % und 81 %.

Tabelle-Muenzwurf

(Wer die Wahrscheinlichkeiten nachvollziehen möchte: Es handelt sich um Clopper-Pearson-Konfidenzintervalle, das Konfidenzniveau liegt bei 95 %).

Die Zahlen zeigen: Selbst, wenn die Rate immer bei 50 % liegt, braucht man schon sehr viele Würfe, bis man die Wahrscheinlichkeit wirklich eingrenzen kann. (Nebenbei: Die Bereiche, mit denen man das reale Ergebnis eingrenzt, sind dabei auch nur mit 95 %iger Wahrscheinlichkeit korrekt. Das bedeutet, in jedem zwanzigsten Fall liegt die reale Wahrscheinlichkeit außerhalb des Bereichs.)

Google steht vor dem gleichen Dilemma, wenn versucht wird, aus der Klickrate auf die Klickwahrscheinlichkeit zu schließen. Die folgende Tabelle zeigt die Situation wie oben, nur dass es dieses Mal um eine Anzeige mit einer Klickrate von 5 % geht – eine ganz normale Situation also.

Tabelle-Klicks

Wie man sieht bedarf es einiger Impressionen, bevor verlässliche Zahlen vorliegen. Dabei müssen die Zahlen möglichst genau sein, denn es geht bei der Anzeigenauktion ja um viele Anzeigen, die vermutlich alle recht dicht beieinander liegen.

Die ganze Übung mag sehr theoretisch wirken – was macht es schon, wie genau man die Klickwahrscheinlichkeit kennt? Im Zweifelsfall sortiert Google die Anzeigen eben mal falsch und verliert hier und da mal einen Cent. Doch wenn man, wie Google, täglich Abermillionen von Anzeigen ausliefert, dann machen diese Feinheiten in der Summe durchaus einen großen Unterschied.

Schätzung der Klickwahrscheinlichkeit

Um die Anzeigen optimal zu ordnen und den höchstmöglichen Gewinn daraus zu erzielen, braucht Google also eine möglichst genaue Schätzung der Klickwahrscheinlichkeit für den Qualitätsfaktor. Die Tabellen zeigen, dass man für eine verlässliche Schätzung einiges an Daten sammeln muss. Bis diese Daten vorliegen, muss Google also blind fliegen. Während dieses Blindfluges würden natürlich suboptimale Ergebnisse erzielt – Google müsste also mit weniger Einnahmen leben als möglich wären.

Dabei ist Googles Dilemma noch viel größer als es aussieht. Denn die Tabellen legen ja nahe, dass es irgendwann verlässliche Daten gibt. In der Realität sieht das allerdings anders aus, denn da gibt es fast nie die Klickrate, auf die man sich verlassen kann. Nehmen wir mal an, das Keyword “laufschuhe” hat eine Klickrate von 5 % nach 10.000 Impressionen. Laut Tabelle haben wir die reale Klickwahrscheinlichkeit damit schon gut eingegrenzt.

Allerdings entfielen diese 10.000 Impressionen vielleicht auf ganz verschiedene Suchanfragen wie “laufschuhe”, “laufschuhe günstig” und so weiter. Natürlich hat jede Suchanfrage dabei ihre eigene Klickwahrscheinlichkeit. Vielleicht steht in der zugehörigen Anzeige das Wort “günstig”, dann hat die Suchanfrage “laufschuhe günstig” eine ganz andere Klickwahrscheinlichkeit. Jede Suchanfrage muss also einzeln betrachtet werden. Die 10.000 Impressionen werden also aufgeteilt und man hat deutlich weniger Daten.

Verschlimmert wird das Dilemma noch durch die Rotation von Anzeigen: Das Keyword “laufschuhe günstig” funktioniert mit der Anzeige für teure Laufschuhe ganz anders als mit der für günstige Laufschuhe. Und natürlich gibt es da noch die Situation, dass eine Suchanfrage oder eine Anzeige ganz neu ist und es noch gar keine Daten dazu gibt.

Halten wir fest: Google braucht wirklich Unmengen von Daten zur Schätzung von Klickwahrscheinlichkeiten, wenn das auf Grundlage von Impressionen und Klicks geschehen soll. Also was könnte man noch heranziehen, um auf die Klickwahrscheinlichkeit zu schließen? Hier brauchen wir unsere Fantasie nicht groß zu bemühen: Es sind die bekannten Einflussfaktoren des Qualitätsfaktors, die wir bequem der AdWords-Hilfe nachlesen können.

Da wäre zunächst die Klickrate selbst – die haben wir ja jetzt abgehandelt. Ansonsten spielen vor allem Relevanzfaktoren eine Rolle. Das ist logisch: je relevanter die Anzeige für die Suchanfrage ist, desto wahrscheinlicher ist auch der Klick. Neben Klickrate und Relevanz wird auch oft die Zielseite angeführt. Diese ist allerdings in der Anzeigenauktion nicht relevant, was ich im zweiten Post der Reihe als Widerspruch zu Googles Qualitätsversprechen bezeichnet habe. Jetzt ist klar, warum die Zielseite keine Rolle spielt: Sie hat keinerlei Einfluss auf die Klickwahrscheinlichkeit, denn man sieht sie ja erst nach dem Klick. Das einzige, was man von der Zielseite sieht (bzw. zu sehen glaubt), ist die Anzeige-URL – und deren Klickrate wird als separater Faktor tatsächlich aufgeführt.

Man kann davon ausgehen, dass es noch viele weitere Signale gibt, die in die Berechnung mit eingehen. Wie genau Google all diese Daten zur Klickwahrscheinlichkeit vermengt, ist alles andere als trivial und kann von außen nicht im Detail ergründet werden. Man kann jedoch davon ausgehen, dass sich der Qualitätsfaktor bei neuen Keywords oder Anzeigen am Anfang vor allem auf Faktoren wie Relevanz und halbwegs verwandte Klickraten (Konto insgesamt, ähnliche Keywords, etc.) stützt, welche mit zunehmender Datengrundlage mehr und mehr in den Hintergrund treten.

Das Geheimnis des Qualitätsfaktors

Im ersten Post dieser Reihe hatte ich Antworten für drei Fragen versprochen. Diese Antworten haben wir nun:

Wozu ist der Qualitätsfaktor da?

Um Googles Gewinn zu maximieren.

Was ist Qualität?

Klickwahrscheinlichkeit.

Was ist der Qualitätsfaktor?

Man könnte meinen, hier müsste noch mal Klickwahrscheinlichkeit stehen. Wie oben dargelegt, ist die Klickwahrscheinlichkeit jedoch keine greifbare Größe, sondern kann lediglich bestmöglich geschätzt werden. Diese Schätzung ist der Qualitätsfaktor.

Also, noch mal in fett und deutlich:

Der Qualitätsfaktor ist Googles Schätzung der Klickwahrscheinlichkeit

Und damit hätten wir nun auch das “Geheimnis des Qualitätsfaktors” gelüftet.

Stimmt das denn auch?

Wie im ersten Post geschildert: Ich bin nicht in den Googleplex eingebrochen. Auch sonst hat Google in keinster Weise bestätigt, dass das hier stimmt. Insofern muss man es ehrlicherweise als Theorie bezeichnen.

Man muss allerdings auch sehen, dass diese Theorie einfach nur eine logische Fortführung einer einfachen These ist: Google möchte so viel Geld verdienen wie möglich. Wenn das hier falsch ist, dann bedeutet das eins von zwei Dingen: Entweder, Google möchte gar nicht so viel Geld wie möglich verdienen. Oder Google ist nicht von selbst darauf gekommen. Beides scheint mir nicht wahrscheinlich.

Wie geht’s weiter?

Das große Geheimnis ist gelüftet, doch damit sind wir nicht fertig. Denn mithilfe dieses Wissens können wir nun etwas tiefer in die Funktionsweise des Qualitätsfaktors blicken. Damit lassen sich Fehlannahmen korrigieren und manche bisher ungeklärte Frage beantworten. Wir können außerdem über bisher unbekannte Faktoren spekulieren. In den kommenden Tagen und Wochen werden wir also noch so manchen Post hierauf aufbauen.

Bis dahin danke ich allen, die so lange durchgehalten haben, fürs Lesen :)

Keyword-Links: Gut oder schlecht? Und woher kommen die?

19. Januar 2011 | Von in Linkbuilding, SEO | 7 Kommentare

Wir haben in den letzten Tagen ein neues Tool gebastelt, das Keyword-Links für Money-Keywords findet. Zum Austesten haben wir das für verschiedenste Keywords laufen lassen, die allesamt als “Money-Keywords” gelten, also teure, umkämpfte Suchbegriffe.

Was suchen wir da? Wir suchen Links in der Form <a href=””>Keyword</a>. Dabei prüfen wir natürlich auch, ob es Dofollow-Links sind. Gemeint sind also Links, die so oder so ähnlich aussehen:

Bild

Sind Keyword-Links gut?

Nach gängiger Meinung sollen derartige Links das Ranking für das verlinkte Keyword stärken. Ich persönlich halte derartige Keyword-Links ja für gefährlich, weil Google eben doch nicht blöd ist. Die meisten dieser Links sind halt gekauft oder getauscht. (Womit ich natürlich nicht sagen will, dass das im Beispiel oben der Fall ist)

Wenn wir es mit einer halben Stunde Python-Programmierung (und der allmächtigen Bloofusion-Library) schaffen, mehr als 2.000 Websites zu identifizieren, die mit sehr hoher Wahrscheinlichkeit einen Link verkaufen oder tauschen, kann Google das auch.

Und wer glaubt, dass ein Link, der auf allen Seiten einer Website wie www.playstation-paradies-123.de (fiktives Beispiel) zu finden ist und mit dem Keyword “Fertighaus” auf eine Website verlinkt, etwas (und das vor allem langfristig) bringt, unterschätzt Google wohl unglaublich.

Man sieht dem Link – wie im Fall oben – natürlich nicht an, ob er gekauft ist oder nicht. Da hat Google natürlich prinzipiell schlechte Karten. Aber die Fragen ist ja, ob Google hier wirklich einen 100%igen Beweis braucht.

Im Übrigen ist es in vielen Fällen so, dass gerade die erstplatzierten Websites für ein bestimmtes Keyword keinen einzigen Keyword-Link haben. Keyword-Links sind also nicht unbedingt der absolute Schlüssel zum Erfolg.

Wir haben uns natürlich auch die ganzen Links angeschaut, um zu prüfen, ob es nicht doch legitime Links sind. Das könnte ja passieren. Aber es ist eben extrem unwahrscheinlich, dass jemand das Wort “Ratenkredit” oder “Fertighaus” verlinkt. Und so war es auch in der Praxis: Ich habe keinen einzigen Link gefunden, der wohl organisch entstanden ist. (Wie gesagt: Genau weiß man’s nie, aber ich habe da schon ein sehr gutes Gefühl)

Wie sind die Keywords verteilt?

Unser Tool überprüft auch, wo die Keyword-Links zu finden sind:

  • Home Page: Die Startseite einer Website verlinkt, aber auch nur die Startseite
  • Deep Page: Eine Unterseite verlinkt, aber auch nur die Unterseite
  • Site-wide: Alle Seiten einer Website verlinken (üblicherweise Footer- oder Navi-Links)

Die Links, die wir gefunden haben, sind dabei wie folgt verteilt:

Bild

Es dominieren also Links der Kategorie Deep Page – in der Regel Blog-Beiträge. Home-Page-Links gibt es auch immerhin noch in ca. 1/6 der Fälle. Site-wide Links sollten eigentlich wirklich der Vergangenheit angehören, aber es gibt sie immer noch.

Streng genommen sind Site-wide Links auch die einzigen Links, die Google sehr effizient herausfiltern kann. Bei allen anderen hängt es eben stark vom Einzelfall ab.

Meine Meinung

Keiner hat was davon, in Schönheit zu sterben, wenn die Konkurrenz zeitgleich Keyword-Links kauft und nicht versucht, Links auf anderem Wege (z. V. via Social Media) zu erzeugen.

Aber: Google ist nicht total dumm. Leider ist Google immer noch dumm genug, um vieles nicht zu erkennen. Das liegt in der Natur der Sache, denn ein Link ist zunächst einmal ein Link, dem man nicht ansieht, wie er zustandegekommen ist.

Keyword-Links funktionieren derzeit immer noch recht gut (je nach Art des Links). Und: Es gibt für manche Themen einfach keine Möglichkeit, organische Links zu bekommen, die auf das Keyword ausgerichtet sind. Mit seiner Liebe für Keyword-Links zwingt Google also Website-Betreiber geradezu zum Tricksen.

Manchmal glaube ich, dass ich im falschen Film bin. Die meisten professionellen Linkbuilder schreiben etwas von “thematisch passenden Links”, die man braucht – und dann sieht man zeitgleich, dass viele Website-Betreiber sich Schrott-Links kaufen und damit auch noch – kurz- und mittelfristig – durchkommen.

Da wird Social Media als der heilige Gral des Linkaufbaus gehandelt. Aber zeitgleich wird eben immer noch gekauft, was geht. Ich glaube, dass viele Social Media so sehr herbeisehnen, weil sie es leid sind, für Links zu bezahlen und auch das Risiko nicht mehr tragen möchten, dafür einiges Tages abgestraft zu werden.

Linkaufbau bleibt also auch weiterhin ein spannendes Thema. Und eins, bei dem wohl jeder sein eigenes Rezept und eine Vorstellung vom idealen Link-Mix hat…