Bloofusion
Logo Internetkapitäne Logo Internetkapitäne

Google Update unter der Lupe: Business.com

28. Februar 2011 | Von in SEO | Keine Kommentare

Im Moment schauen wir uns natürlich viele Rankings an, um das neueste Update besser zu verstehen und um Erfolgsfaktoren auszumachen. Von diesen Beiträgen könnte es in den nächsten Tagen einige geben – so etwas wie “laut denken”. Ich fange mal mit einem Gedanken an.

Laut SISTRIX-Auswertung hat Business.com durch das jüngste Update sehr viele Rankings verloren. Und da versuche ich einige Trends auszumachen.

Beispiel: Leather Clothing

Die Rankings bzw. Verluste sind recht inkonsistent. So ist ein Ranking für das Keyword “leather clothing” verloren gegangen (derzeit kein Ranking in der Top 100, Seite ist aber im Index vertreten).

Die Ziel-Seite für “leather clothing” wäre:
http://www.business.com/directory/retail_and_consumer_services/apparel_and_accessories/women/leather_apparel/

Eine klassische Verzeichnisseite, die hinsichtlich On-Page gut optimiert ist. Viele der Beschreibungstexte sind allerdings nicht unique, sondern finden sich auch auf anderen Plattformen. Streng genommen sind die gesamten Seiten nicht unique, weil es sie auch noch öfter als Dublette gibt, z. B.

Da kann man sogar noch verstehen, warum Google die Seite auf einmal nicht mehr mag.

Wenn das aber ein hartes Kriterium wäre, müsste Google ja eigentlich alle Business.com-Seiten entwerten. Das ist aber definitiv nicht so.

Gutes Gegenbeispiel ist die Seite http://www.business.com/directory/retail_and_consumer_services/apparel_and_accessories/men/leather_apparel/, die für “mens leather apparel” (Google #10) trotzdem gefunden wird. Das ist kein berauschendes Ranking, aber angesichts der Tatsache, dass die Seite faktisch leer ist, dann doch wieder erstaunlich.

Noch ein Beispiel: Movie Theaters

Auch das Ranking für “movie theaters” ist weg. Die Ziel-Seite http://www.business.com/directory/media_and_entertainment/film/exhibition/movie_theaters/ ist aber nach wie vor im Index vertreten.

Das Ranking für “film exhibition screens” ist aber nach wie vor zu finden (Google #1 mit der Seite http://www.business.com/directory/media_and_entertainment/film/exhibition/equipment_and_supplies/screens/).

Long Tail?

Der erste Eindruck liegt nahe, dass Google im Short Head kritischer als im Long Tail ist. Aber auch im Long Tail hat Business.com Rankings verloren. Das Ranking für “recruitment firms companies australia” ist jedenfalls weg, auch wenn die Seite dafür (http://www.business.com/directory/human_resources/hiring_and_retention/recruiting_services/search_firms/companyprofiles.asp) im Index vorliegt.

Bewegung

Im Übrigen scheint viel Bewegung im Index zu sein. Einige der Rankings, die ich am Sonntag Abend noch als nicht existent entdeckt habe, sind mittlerweile wieder zu finden. Für “powerful commercial magnet purchase” war Business.com noch gestern nicht in der Top 100 zu finden, aber eben immerhin auf Position 18.

Sorry, aber so richtig viel Sinn ergibt das alles im Moment noch nicht…

“Farmer” Update: Die Verlierer (und Gewinner) stehen fest

28. Februar 2011 | Von in SEO | Keine Kommentare

Am Freitag hatte ich schon auf die neuen Google-Updates hingewiesen, die derzeit in den USA ausgerollt werden. Es hat erwartungsgemäß nicht lange gedauert, bis die ersten Auswertungen da sind.

Zahlen gibt es schon viele, aber gute Deutungsversuche habe ich bislang noch nicht gelesen. Ich persönlich finde die Ergebnisse noch nicht sehr schlüssig. Es ist klar, wogegen Google eigentlich vorgeht – und zwar gegen “Thin Content”. Aber es finden sich dann doch immer wieder Seiten dazwischen, die Google nicht erwischt hat.

Ich könnte hier einige Theorien aufzählen, die bei uns diskutiert werden, aber das verschiebe ich auf später. Wer am Thema dran bleiben möchte, kann aber bei den folgenden Websites starten.

Beitrag von SISTRIX (mit Top 25 der Verlierer):
Google Farmer Update: Quest for Quality

Beitrag von Search Engine Land (mit Top 100 der Verlierer):
Number Crunchers: Who Lost In Google’s “Farmer” Algorithm Change?

Analyse auf SEOBook.com:
Google Kills eHow Competitors, eHow Rankings Up

Quora.com (hier sind vor allem die Kommentare interessant):
Which websites dropped the most in the Google algorithm change of February 2011?

AdWords Conversions nach Stunden

27. Februar 2011 | Von in SEM | 3 Kommentare

Bei Google AdWords kann man Conversion-Daten nun auch nach Stunden aufschlüsseln. Die Zahlen findet man auf dem Statistik-Tab, indem man sich Stunde des Tages anzeigen lässt. Bisher sah man dort nur Daten zu Klicks und Impressionen, also beispielsweise, wie viele Klicks in der Zeit von zehn bis elf Uhr angefallen waren. Die Spalten zu Conversion-Daten blieben leer.

Nun sieht man also auch, wie viele Conversions beispielsweise aus den Klicks zwischen zehn und elf Uhr entstanden sind. Die Spitzfindigkeit ist wichtig: Conversion-Daten in AdWords beziehen sich immer auf einen Klick. Wenn der Klick also um halb elf geschah und der Besucher zwei Stunden später etwas bestellt hat, wird die Conversion trotzdem in der Zeit zwischen zehn und elf Uhr angezeigt (das Phänomen kennt man ja schon in Verbindung mit Datumswechseln).

Verfügbar sind Conversion-Daten erst ab Anfang Februar. Nach Durchsicht mehrerer Accounts scheint es, als ob die Daten überall ab dem 4. Februar vollständig sind. Eine Auswertung über Zeiträume davor ist also nicht möglich, bzw. führt zu falschen Ergebnissen.

Mit Hilfe der Daten kann man nun auswerten, wie sich Conversion-Daten über den Tag entwickeln. Ich habe das für einige Accounts gemacht, hier ist einer davon. Vorweg: Dieses Beispiel ist absolut nicht repräsentativ.

AdWords Conversion-Rate und Bestellwerte (jeweils normiert) nach Stunde des Tages

Zu sehen sind hier Conversion-Raten und Bestellwerte, jeweils normiert auf den Tagesdurchschnitt (=100 %). Ich kann nur empfehlen, solche Auswertungen auf Basis normierter Daten zu machen und diese am besten noch grafisch darzustellen. Ansonsten verirrt man sich leicht in den Zahlen.

Wie man sieht schwanken beide Größen in der Nacht erheblich. Das liegt an der relativ dünnen Datenbasis: Nur 5 % der über 2.000 Conversions wurden hier vor acht Uhr morgens erzielt, zwischen drei und vier Uhr keine einzige. Die Conversion-Rate schwankt hier über den Tag verteilt, ein klarer Trend fehlt jedoch: Um acht Uhr morgens ist sie 23 % über dem Durchschnitt, eine Stunde später auf dem Durchschnitt, noch eine Stunde später sieben Prozent drunter, dann wieder sieben drüber…

Ähnlich sieht es bei den Bestellwerten aus, die über Tag ebenfalls um den Durchschnitt schwanken. Hier kristallisiert sich allerdings heraus, dass in der Nacht deutlich günstiger eingekauft wird.

Fazit: Nichts überstürzen

Die neuen Statistiken sind interessant, aber man sollte vorsichtig mit Schlussfolgerungen sein. Statistische Schwankungen liegen in der Natur der Sache. Ohne nun in die Tiefe zu gehen: Dass mal eine Stunde des Tages etwas besser lief, heißt noch lange nicht, dass es einen tatsächlichen Trend gibt.

Bevor man also aktiv wird und beispielsweise Gebote für bestimmte Tageszeiten modifiziert, sollte man also sicherstellen, dass die Trends tatsächlich statistisch signifikant sind. Auch sollte man sich ggf. die Frage stellen, ob es sich lohnt, auf signifikante Trends zu reagieren: Lohnen sich beispielsweise separate Gebote für die Zeit vor sechs Uhr, wenn dann sowieso nur wenig Traffic generiert wird?

Links

Eine offizielle Quelle gibt es nicht, aber Maria Nikishyna von Search Marketing Wisdom hat’s zuerst gesehen. Lesenswert zum Thema Dayparting (Berücksichtung von Tageszeiten, beispielsweise durch individuelle Gebote) ist auch dieser Artikel von Siddharth Shah, der vor einiger Zeit auf Search Engine Land veröffentlicht wurde.

Zwei Google-Updates in den USA im Test: “Scraper” und “Farmer” Update

25. Februar 2011 | Von in SEO | 3 Kommentare

Jedes Kind braucht einen Namen und so hat Danny Sullivan dann auch zwei Namen für die neuen Google-Updates erfunden: “Scraper Update” und “Farmer Update”.

Der Kampf “Google vs. die Bösen” geht damit in die nächste Rund – wie auch im Google-Blog-Post “Finding more high-quality sites in search” nachzulesen ist.

In aller Kürze:

  • Es gibt eine große Algorithmusänderung, die laut Google 11,8% der Suchanfragen so betrifft, dass man eine signifikante Änderung in den Suchergebnissen bemerken können sollte. Wie sich die Gesamtheit der Suchanfragen zusammensetzt, sagt Google aber nicht.
  • Das Update wird zunächst in den USA eingespielt – wohl, um zu testen, wie die Auswirkungen sind. Denn auch Google erwartet, dass es eben nicht nur “die Bösen”, sondern als Kollateralschaden auch ein paar “Gute” treffen wird. Im Google-Jargon heißt das dann: “It has to be that some sites will go up and some will go down”.
  • Google legt Wert auf die Feststellung, dass die Änderungen nicht in Zusammenhang mit der jüngst vorgestellten “Personal Blocklist Chrome extension” stehen. Aber: Google hat herausgefunden, dass das jetzt vorgestellte Update 84% der Websites betrifft, die über die Blocklist gesammelt wurden. Das wird Google sicherlich als Bestätigung dafür nehmen, dass das Blocken und vor allem das Auswerten der geblockten Sites sinnvoll und hilfreich ist.

Wie effektiv das neue Update ist und welche Sites davon wirklich betroffen sein werden, bleibt abzuwarten. Ich habe heute morgen ein paar Rankings von Ehow.com und anderen Sites geprüft und konnte dort leider keine Änderung feststellen.

Hier wäre es auf jeden Fall spannend, entsprechende “Winners & Losers”-Statistiken der großen SEO-Tool-Anbieter zu sehen, die Millionen von unterschiedlichen Suchbegriffen beobachten. Bis jetzt habe ich aber noch nichts in der Richtung gehört.

Google-Suche nach Rezepten: Was Google aus Markup machen kann

25. Februar 2011 | Von in SEO | 3 Kommentare

Danke an @frischkopp für den Hinweis: Bei Google.com (noch nicht .de) kann man jetzt auch konkret nach Rezepten suchen:

Bild

Auch die Filter sind eine witzige Sache.

Interessant ist das neue Feature aber nicht nur für Hobbyköche. Denn es zeigt, was Google aus strukturierten Informationen, die es über Microformats bekommen kann, alles machen kann (siehe: Markup für Recipes). Denn ohne entsprechendes Markup taucht eine Website in der Spezialsuche nicht auf.

Ähnliches könnte wohl schon bald für andere Markups (vor allem Events) kommen. Und dann hoffentlich auch in Deutschland.

AdWords Anzeigenschaltung für Conversions optimieren

24. Februar 2011 | Von in SEM | Keine Kommentare

Es klingt fast schon revolutionär: Ab sofort kann man die Anzeigenrotation bei Google AdWords so einstellen, dass Anzeigen, die vermutlich mehr Conversions erzielen, bevorzugt geschaltet werden. Die Einstellung findet man wie gewohnt bei den Kampagneneinstellungen und da unter Erweiterte EinstellungenAnzeigenschaltung.

Einstellung: Anzeigenschaltung-für Conversions optimieren

Bisher gab es dort nur die Möglichkeiten, für Klicks zu optimieren oder die Anzeigen möglichst im gleichen Verhältnis zu schalten. Neu ist jetzt der zweite Auswahlpunkt Für Conversions optimieren.

Mit dieser Neuerung geht Google auf eine Anforderung ein, die Werbetreibende praktisch schon immer hatten: Conversions stehen im Mittelpunkt der meisten Kampagnen, nicht Klicks. Google ist hier in einem Interessenskonflikt, denn das Unternehmen verdient pro Klick und bevorzugt dementsprechend die Schaltung von Anzeigen, die zu mehr Klicks führen.

Diese “Optimierung”, die ja primär nur im Sinne Googles ist, abzuschalten gehört für viele Werbetreibende und Agenturen zum Standardvorgehen. Stattdessen werden Anzeigen leistungsunabhängig geschaltet, um schließlich nach eigenen Kriterien die bessere Anzeige zu bestimmen. Diese Kriterien sind typischerweise Klick- und Conversion-Rate sowie ggf. Umsatzkennzahlen.

Der Haken

Weder die offizielle Ankündigung noch die AdWords-Hilfe geben Auskunft darüber, um welches Kriterium es bei der Optimierung für Conversions nun genau geht. Auf den ersten Blick bietet sich die Conversion-Rate als die Kennzahl an, die bei der Optimierung im Mittelpunkt stehen müsste. Mit anderen Worten, die Anzeige mit der höchsten Conversion-Rate müsste bevorzugt geschaltet werden. Ich glaube nicht, dass das auch so gemacht wird.

Die Conversion-Rate bezeichnet das Verhältnis von Conversions zu Klicks. Da pro Klick bezahlt wird, bedeutet eine höhere Conversion-Rate für den Werbetreibenden gleichzeitig niedrigere Kosten pro Conversion – kurz: Es wird profitabler. Nun gibt es prinzipiell zwei Wege, die Conversion-Rate zu erhöhen: Die Klicks besser zu verwerten oder die Streuverluste zu verringern. Letzteres bedeutet, weniger schlecht konvertierende Klicks einzukaufen – und das ist nicht im Sinne von Google.

Google hat aber nirgends behauptet, dass die Conversion-Rate tatsächlich im Mittelpunkt steht. Vielmehr geht es um die Zahl der Conversions an sich. Und diese Zahl hängt von zwei Dingen ab: Wie viele Klicks es gibt und wie viele dieser Klicks konvertieren. Im Mittelpunkt steht also nicht mehr das Verhältnis von Conversions zu Klicks, sondern das Verhältnis von Conversions zu Impressionen. Diese Kennzahl, auch als Impression-to-Conversion (I2C) oder Conversions-per-1000-Impressions gehandelt, ist durchaus nicht neu, aber auch nicht gerade weit verbreitet.

Ich gehe stark davon aus, dass Google diesen Ansatz verfolgt. Werbetreibende sollten sich also nicht wundern, wenn eine Anzeige mit hoher Conversion-Rate trotzdem nicht Googles Favorit ist. Google kommt Werbetreibenden mit dem Fokus auf Conversions zwar entgegen, zwangsläufig optimal ist dies für Werbetreibende aber nicht.

Weiter wie bisher?

Es gibt in der Ankündigung einen kleinen Satz, der für die Wirkung der Option in der Praxis ausschlaggebend sein dürfte:

When we don’t have enough data to make a decision, we’ll show the ad that is the most likely to receive clicks.

In der englischen AdWords-Hilfe steht es noch deutlicher (die deutsche Version ist offenbar falsch übersetzt worden):

If there isn’t sufficient conversion data to determine which ad will provide the most conversions, ads will rotate using ‘Optimize for clicks’ data.

Solange nicht klar ist, welche Anzeige mehr Conversions generiert, wird also wie gehabt auf Klickmaximierung hin optimiert. Da Google hierbei für gewöhnlich recht schnell einen Gewinner kürt, stellt sich die Frage, wie dann genügend Conversion-Daten für neue Anzeigen gesammelt werden sollen. Naturgemäß werden Klickdaten eben sehr viel schneller gesammelt als Conversion-Daten.

Fazit: Doch keine so große Neuerung

Insgesamt ist zu erwarten, dass die neue Option nur in wenigen Fällen einen Unterschied zur Standardeinstellung (für Klicks optimieren) macht. In diesen wenigen Fällen dürfte die Option dann bessere Ergebnisse bringen, ansonsten ändert sich nichts. Die Standardeinstellung wäre damit der neuen Option unterlegen und sollte – wenn überhaupt – nur noch eingesetzt werden, wenn man tatsächlich überragenden Wert auf Klicks legt.

Und Google straft weiter ab: Drei Schlussfolgerungen aus dem Fall Overstock.com

24. Februar 2011 | Von in SEO | 6 Kommentare

Vor einigen Tagen gab es ja schon eine öffentlichkeitswirksame Aktion von Google gegen Link-Manipulationen (“Massenhafte Paid Links by J.C. Penney: Warum man keine Links kaufen sollte“). Nun hat es Overstock.com getroffen.

Interessant an diesem Fall ist einiges:

1.) Diesmal hat Google nicht durch einen Zeitungsartikel davon erfahren, sondern durch die Meldung eines Konkurrenten (siehe Artikel aus dem Wall Street Journal):

The change followed a complaint by a competitor last week to Google about Overstock’s actions.

Man könnte hier einen Trend vorhersagen – nämlich, dass Unternehmen Google gerne die Recherchearbeit abnehmen, wenn sie merken, dass ihre Recherchen auch zu den entsprechenden Resultaten führen (also, dass Konkurrenten dann aus den Suchergebnissen entfernt werden). Diese Gewissheit gab es bislang nur bedingt.

2.) Es ging hier nicht wie bei J.C. Penney um gekaufte Links, sondern um Links, die im Rahmen einer Aktion gesetzt wurden. Von derartigen Aktionen gibt es ja immer noch sehr viele, z. B. Gewinnspiele, an denen man teilnimmt, wenn man im Blog etwas drüber schreibt und dann natürlich auf die Website verlinkt.

Auch wenn es bei solchen Aktionen nicht um gekaufte Links geht, muss klar sein, das auch derartige Maßnahmen nicht willkommen sind.

3.) Es wird immer noch jede Menge Stuss erzählt – siehe nochmal der Artikel aus dem Wall Street Journal:

“There is big money in .edu links because they are ‘trusted sites’ in Google’s eyes,” said David Harry, president of Reliable SEO, a SEO specialist based in Canada.

Warum hält sich der Mythos der EDU-Links so verdammt gut? Sicherlich: Ein EDU-Link schadet nicht, aber an eine über andere Links herausgehende Strahlkraft glaube ich nicht. Dafür sind die EDU-Sites auch schon viel zu stark mit irrelevanten Inhalten durchsetzt.

Mein Fazit

Im DIYSEO-Blog steht etwas, was das ganze gut zusammenfasst und meiner Meinung nach vollkommen richtig ist:

Be careful which tactics you implement and whose advice you listen to: your business is valuable, and you don’t want to jeopardize such a potentially valuable traffic stream.

In diesem Sinne…

Das neue suchradar Ausgabe 28 ist da – mit dem Titelthema “Lokale Suche”

23. Februar 2011 | Von in Sonstiges | Keine Kommentare

cover-feb-2011-150wBei der Planung des neuen suchradars war ich mir unsicher, ob das Thema “Lokale Suche” überhaupt für die Mehrheit unserer Leser interessant ist. Da bin ich mir nach wie vor nicht sicher, da wir viele Online-Shops und Affiliates als Leser haben, für die die lokale Suche vielleicht kein Thema ist. Aber man muss ja auch mal was machen, was man selber spannend findet und was vielleicht auch neue Leserschaften erschließt :)

Wie auch immer: Da ist es nun, das neue suchradar Ausgabe 28. Dick ist’s geworden und es besteht wohl Einigkeit bei uns, dass die nächste Ausgabe wieder kleiner werden muss. Aber da setzen wir uns nächste Woche mal zusammen und lassen die Köpfe rauchen…

An dieser Stelle möchte ich mich wie immer bei allen Mitwirkenden bedanken – vor allem: Tina für das Layout, Maik für die Endkontrolle und die Redaktion (und den Hotpot-Artikel), Martin für die AdWords-Beiträge, Fabian für das Verkaufen der Listings und der Werbeplätze. Und auch Danke an die Gastautoren dieser Ausgabe: Martin Schirmbacher (rechtliche Aspekte bei der lokalen Optimierung), Jürgen Lammers (SEMRush), Hanns Kronenberg (Ranking-Faktoren in Google Places) und Simon Schmidt (Google Produktsuche).

Genug des Lobs. Hier kommen die Themen – und dann viel Spaß beim Lesen!

Titelthema “Lokale Suche”:
> Lokale Google-Suche: Warum Unternehmen ihre Websites besser abstimmen müssen
> Lokale Bewertungen: Google-Places-Profile mit Bewertungen optimieren
> Lokale Google-Suche: Ranking-Faktoren in Google Places
> Lokale Suche: Rechtliche Aspekte bei der lokalen Optimierung
> Lokale Branchenverzeichnisse
> Bewerten und empfehlen (lassen): Die Auswirkungen von Google Hotpot

Außerdem:
> Google AdWords Werkstatt: Produkterweiterungen
> Linkaufbau für ein Gay-Dating-Portal
> Google Produktsuche: Mit den Shopping-Ergebnissen in die Pole Position
> SEOmoz und Majestic SEO: Sollten Link-Datenbanken blockiert werden?
> Online-PR: Welches kostenlose PR-Portal darf’s denn sein?
> Getestet: SEMRush
> Kurz getestet: Linkbird
> Interview mit André Morys

suchradar Ausgabe 28 runterladen:
http://www.suchradar.de/magazin/

Wieviele Suchergebnisse hat eine lokale Google-Ergebnisseite?

23. Februar 2011 | Von in Local Search, SEO | 7 Kommentare

Passend zu unserem suchradar-Special zum Thema “Local SEO” hat mich mal interessiert, wie die Anzahl der Suchergebnisse auf der ersten Google-Ergebnisseite eigentlich verteilt ist. Dazu habe ich insgesamt 740 lokale Suchanfragen (20 Branchen x 37 Städte) an Google gestellt und die Ergebnisse ausgewertet.

In den Zahlen werden nur die organischen Listings, nicht aber die Ergebnisse aus einem 7-Pack oder 3-Pack mit Places-Listings erfasst. Wenn in der Auswertung also “10” steht, meint das, dass es eben zehn organische Listings und in der Regel ein 7-Pack gibt – wie bei “anwalt hamburg”:

Bild

Es gibt aber auch andere Suchanfragen, bei denen es eben zu mehr als zehn organischen Suchergebnissen kommt, weil die organischen und Places-Listings gemischt werden.

Dann können z. B. 11 Suchergebnisse entstehen – wie bei “hotels paderborn”:

Bild

Oder es können 15 Ergebnisse angezeigt werden – wie bei “hotel dortmund”:

Bild

Welche Ergebnisse hat die Auswertung geliefert?

Hier zunächst die Zahlen:

Bild

Was folgert daraus?

Zunächst muss man sich ja fragen, warum Google mal die Variante mit zehn organischen Listings zuzüglich 7- oder 3-Pack wählt (im Chart: 10) und warum Google sich dann manchmal für die hybride Mischform (im Chart: 11-15) entscheidet.

Meiner Meinung nach hängt das eben davon ab, wie hoch die Überschneidung zwischen den organischen und den Places-Listings ist. Wenn man davon ausgeht, kann man aus den Zahlen wirklich etwas herauslesen:

  1. Google reicht offenbar eine Überschneidung von nur einer Website nicht aus, weil es sonst auch lokale Suchergebnisseiten mit 16 Ergebnissen geben müsste (10 organische + 7 Places = 17 – 1 Überschneidung).
  2. In mehr als der Hälfte der Fälle gibt es nach wie vor die “alte” Darstellung (10 organische Listings + 3/7-Pack). Das deutet darauf hin, dass die Überschneidung zwischen organischen Suchergebnissen und Places oftmals sehr gering ausfällt. Das liegt zum einen an starken Portalen (z. B. Expedia bei Hotels), die oftmals gute organische Rankings haben, aber eben in den Places nicht zu finden sind. Es liegt aber auch daran, dass viele Unternehmen nicht beides (ihre eigene Website + Places-Listing) optimieren.
  3. Das erkennt man auch an der Verteilung von 11 – 15, denn die Darstellungsform mit 15 Ergebnissen ist deutlich häufiger als die Variante mit 11 oder 12 Ergebnissen. Um 11 Ergebnisse darstellen zu können, müssen ja 6 der 7 Places-Listings aus dem 7-Pack auch in den organischen Ergebnissen vertreten sein – und das ist wohl wirklich nicht die Norm.

Die Schlussfolgerung stand ja schon zwischen den Zeilen:

Unternehmen sollten auf jeden Fall ihre organischen Rankings und ihre Places-Profile optimieren, um in beiden Varianten nach oben zu kommen. Oder andersrum: Aus den Zahlen folgert, dass das noch nicht der Standard ist. Wer hier also gut optimiert, hat derzeit einen klaren Vorteil gegenüber anderen Konkurrenten.

Google ignoriert den Seitentitel – und das auch noch immer öfter?

22. Februar 2011 | Von in SEO | 11 Kommentare

Es gibt einen neuen Beitrag bei Search Engine Land, der auf ein Problem eingeht, das wir auch bei einigen Kunden haben – und das auch schon seit einigen Monaten: “Is Google Ignoring The HTML Title Tag More Often?“.

Wer z. B. bei Google.com nach “computer” sucht, findet das folgende Google-Listing:

Bild

Grundsätzlich ist es ja so, dass der Seitentitel der ersten Zeile im Listing entspricht. In diesem Fall ist es aber nicht so. Der Seitentitel der Apple-Startseite heißt nicht “Appel Computer, Inc.” und auch im Google-Cache sieht man, dass Apple seinen Seitentitel nicht in den letzten Tagen geändert hat:

Bild

Google übernimmt den Seitentitel also nicht immer, sondern verändert ihn auch gerne mal. Und das ist abhängig von der Suchanfrage. Denn wer einfach nur nach “apple” sucht, sieht den richtigen Seitentitel:

Bild

Apple kann diese Eigenheit von Google natürlich egal sein, aber es gibt leider auch Fälle, in denen Google entweder sinnloses übernimmt oder eben nicht den inhaltlich besseren Seitentitel übernimmt, was schon Auswirkungen auf die Klick-Rate haben kann.

Was kann man dagegen machen?

Eigentlich relativ wenig. Zunächst sollte man sicherstellen, dass der Seitentitel auch wirklich deskriptiv ist und relevante Suchbegriffe beinhaltet. Seitentitel wie “Home” oder “Untitled 1″ haben meiner Erfahrung nach eine höhere Chance, von Google ersetzt zu werden.

Aber selbst bei sehr guten, uniquen und nicht spammigen Seitentiteln passiert es einfach, dass Google diesen bei einigen Suchanfragen nicht übernimmt. Und dagegen kann man wohl derzeit nichts machen.

Das noodp-Robots-Tag hat darauf übrigens keinen Einfluss. Es verhindert zwar, dass das Snippet aus dem DMOZ übernommen wird, aber für den Titel muss das nicht gelten. Manche Titel stammen dann auch aus dem DMOZ, anderen Verzeichnissen oder häufig gesetzten Links. Die Einflussnahme ist hier also extrem begrenzt.

Falls hier jemand ein Erfolgsrezept hat, würde ich mich über freuen, davon zu erfahren. Wir haben bisher noch keins gefunden.

Ob die Fälle wirklich – wie in dem Beitrag ebenfalls gefragt – zunehmen, in denen Google den Seitentitel ignoriert, kann ich auf Grund der Masse der Fälle nicht sagen.