Bloofusion
Logo Internetkapitäne Logo Internetkapitäne

Google in die Karten schauen: Welche Links zeigt Google in den Webmaster Tools an? Und warum?

31. Oktober 2011 | Von in Linkbuilding | 9 Kommentare

Ich habe in den letzten Tagen mit einer Auswertung angefangen, die sich an meine Auswertung der Link-Datenbanken anschließt.

Mir geht es dabei um die Frage, wie gut eigentlich die Link-Daten, die Google über die Google Webmaster Tools zur Verfügung stellt, im Vergleich zu den Link-Datenbanken SEOmoz, Majestic SEO und OpenLinkGraph sind. Und es geht natürlich darum, ob man daraus etwas ableiten kann (siehe unten: ich glaube, dass man das kann).

Dafür habe ich mir vier Test-Domains herausgesucht, bei denen ich Zugriff auf die Webmaster Tools habe und bei denen es weniger als 1000 Verlinkungen gibt. Denn: Die Webmaster Tools liefern mir nur die Top 1000 Links. Alles andere würde also die Statistik verfälschen.

Ich will dabei u. a. ermitteln, wie hoch der Anteil der gemeinsam gefundenen Links ist und wie viele “Unique Links” es bei den Webmaster Tools und den Link-Datenbanken gibt.

Die Daten werden derzeit noch zusammengetragen und validiert. Das dauert dann doch länger, als ich gedacht habe.

Aber eine interessante Sache ist mir dabei schon aufgefallen. Ich habe mir die Links angeschaut, die von den Link-Datenbanken geliefert werden und nicht von den Webmaster Tools. Dann habe ich diese Links daraufhin überprüft, ob Google diese verlinkenden Seiten überhaupt im Index hat.

Interessant wird es, weil es durchaus viele Seiten gibt, die Google im Index hat. Die darauf befindlichen Links werden aber in den Google Webmaster Tools nicht angezeigt.

Jetzt könnte man ja argumentieren, dass es sich dabei um neue Links handelt, die einfach noch nicht den Weg in die Webmaster Tools gefunden haben. In den folgenden Fällen ist das aber nicht der Fall. Die Links gibt es dort schon seit einiger Zeit.

Beispiel 1:
http://swissonlinemarketing.ch/content/index_ger.html verlinkt auf www.suchradar.de

Bild

Beispiel 2:
http://www.rab-friedrich-ramm.de/linkliste14.html verlinkt auf www.suchradar.de

Bild

Meine Meinung

Im ersten Beispiel ist der Link zwar im Quellcode zu sehen, aber der Link selber befindet sich in einer sehr langen Linkliste und ist auch nicht immer sichtbar.

Im zweiten Beispiel befindet sich der Link auf einer Seite mit ganz vielen anderen Links (ca. 250 ausgehende Links).

Ich glaube, dass die Google Webmaster Tools hier zeigen, dass Google bestimmte Links einfach aussortiert. Bei den mir zur Verfügung stehenden Domains habe ich leider keine dabei, die über irrelevante Footer-Links o. ä. verfügen, aber auch in diesen Fällen würde ich erwarten, dass Google viele davon einfach aussortiert.

Ich habe in den Unique Links der Google Webmaster Tools übrigens auch sehr viel anderen Schrott gefunden, der meiner Meinung nach auch kein positives Licht auf die Google-Algorithmen wirft. Aber in diesen Fällen waren die Links zumindest in formaler Hinsicht in Ordnung (also keine übervollen Linklisten u. ä.).

Ich kann mir hier vorstellen, dass Google unterschiedliche “Schalen” hat, die wertlose Links herausfiltern können. Die beiden Beispiele oben wären dann ein Fall für einen Filter, der sich Links auf Seitenbasis anschaut. Viele andere Links werden wohl erst später bewertet, wenn unterschiedliche Seiten einer Website zeitgleich betrachtet werden können.

In jedem Fall zeigt das ein grundlegendes Problem der Link-Datenbanken, vor dem SEOs stehen: Nicht jeder Link, der als Potenzial auftaucht, ist auch wirklich ein lohnenswerter Link. Viele minderwertige Links streuen in die Auswertungen rein, so dass diese einen Teil der Aussagekraft verlieren.

Hier sind also sowohl die Link-Datenbanken als auch die SEOs in der Pflicht, gute von schlechten Links zu unterscheiden. Die Link-Datenbanken werden das aber wohl so schnell nicht angehen, weil ich den Eindruck habe, dass die Anzahl der gefundenen Links durchaus ein Marketing- und Verkaufsargument ist.

Die gesamte Auswertung…

…dauert wie gesagt noch ein paar Tage. Ich werde diese auf der SEOkomm in Salzburg (25. November) im Track “Link-Datenbanken im Vergleich” (http://www.seokomm.at/vortrag-info.html?vortrag=1600) vorstellen. Und natürlich im nächsten suchradar, das dann im 14. Dezember erscheinen wird.

Das neue suchradar 32 ist da: Mobile SEO/SEM

26. Oktober 2011 | Von in Sonstiges | 5 Kommentare

cover-oct-2011-150wGute Nachrichten: das neue suchradar 32 ist gerade fertig geworden und steht zum Download bereit.

Als Thema behandeln wir diesmal “Mobile SEO/SEM”. Bei dem Thema war ich mir nie so recht sicher, ob das wirklich für eine breite Masse an Lesern interessant ist. Ich denke aber, dass es ein Thema ist, dem sich viele Unternehmen über kurz oder lang stellen müssen.

Auch diesmal wäre das suchradar nicht ohne Tina und Richard (www.createoceans.com) möglich geworden, die sich um das Layout kümmern. Und bei uns waren wie immer Maik (Umsetzung), Fabian (Vermarktung), Martin (die SEM-Artikel) und ich (die SEO-Artikel) damit beschäftigt. Und mein Dank gilt natürlich auch Martin Schirmbacher, der wie gewohnt die juristischen Finessen bedient.

Wie immer sind wir auf jeden Fall froh, dass es fertig ist. Das nächste suchradar hängt uns aber schon wieder im Nacken, weil das (wegen Weihnachten) diesmal früher fertig werden muss.

Titelthema “Mobile SEO/SEM”:
> Mobile Keywords: Themen, die mobil gesucht werden
> Mobile Werbung: AdMob
> Mobile SEM: Mobile Anzeigen mit Google AdWords
> Mobile Ressourcen: Websites zum Thema “Mobile”
> Strategiehilfe: Sind mobile Websites auf separaten (Sub-)Domains sinnvoll?
> Umfrage zu mobilen Websites: Wer macht’s am Besten

Außerdem:
> SEO in Action: Optimierung von Marken-Websites am Beispiel von www.audi.de
> Google AdWords Express: Lokale Suchmaschinenwerbung für kleine Unternehmen
> Web-Analyse-Tools: Google Analytics rechtssicher einsetzen
> Shop Corner: Kurzlebige Produkte für Suchmaschinen optimieren
> Link-Datenbanken im Vergleich: SEOmoz, Majestic SEO und OpenLinkGraph
> Fragen an Johannes Beus zum OpenLinkGraph
> SEO für Einsteiger: Lohnt es sich, für Fehlschreibungen zu optimieren?

Jetzt herunterladen…

Dynamische Suchanzeigen mit AdWords

25. Oktober 2011 | Von in SEM | 5 Kommentare

Letzte Woche hat AdWords ein neues Feature vorgestellt, das derzeit noch im limitierten Betatest ist. Die sogenannten dynamischen Suchanzeigen (“dynamic search ads”) basieren auf Seiten einer Website und kommen ohne voreingestellte Keywords aus. Dabei schließt Google aus dem Inhalt einer Seite, für welche Suchbegriffe diese beworben werden soll und schaltet dafür automatisch Anzeigen.

Gedacht ist das in erster Linie für Anbieter, die ein großes Sortiment bewerben. Diese können es dann Google überlassen, ihre Seiten regelmäßig zu crawlen, automatisch Anzeigen zu erstellen und auch Änderungen im Sortiment zu berücksichtigen. Der Anbieter nur gibt vor, welche Seiten erfasst werden sollen, wie viel pro Klick geboten wird und wie der Anzeigenrumpf aussehen soll. Sobald nach einem passenden Keyword gesucht wird, schaltet AdWords die Anzeigen, setzt eine dynamische Überschrift ein und schickt eventuelle Klicks auf die zugehörige Zielseite oder eine Tracking-URL.

dynamische-such-anzeigen-ads

Ein mögliches Problem: Je nachdem, was Google in die Überschrift schreibt, könnte es rechtliche Probleme geben. Google sagt dazu, dass eine Filtertechnologie unbeabsichtigte Markenrechtsverstöße und andere Richtlinienverstöße verhindern soll. Wie groß das Problem in der Praxis ist, bleibt abzuwarten.

Ausrichtung

Welche Seiten einer Website als Grundlage für dynamische Anzeigen verwendet werden sollen, lässt sich anhand verschiedener Kriterien festlegen. Neben der Option, grundsätzlich alle Seiten zu bewerben, sind das die folgenden:

  • Kategorien: Hier kommt es darauf an, wie gut Google die Website-Struktur versteht – eher mit Vorsicht zu genießen.
  • URL-Bestandteile, z. B. “/damen/”.
  • Seiteninhalte: Seiten, die bestimmte Wörter enthalten.
  • Seitentitel: Auch hier geht um bestimmte Wörter, die im Titel vorkommen müssen.

Auf die gleiche Art und Weise lassen sich auch Seiten ausschließen. Google empfiehlt beispielsweise, Seiten mit Wörtern wie “nicht lieferbar” auszuschließen. Es ist auch möglich, erst mal alle Seiten zu bewerben und davon bestimmte Seiten wieder auszuschließen. Im Übrigen lassen sich ausschließende Keywords wie gewohnt verwenden, um eine Anzeigenschaltung bei bestimmten Suchanfragen zu verhindern.

Die Ausrichtungsoptionen und auch das dynamische Einsetzen von Anzeigenüberschriften deuten es schon an: Websites bzw. Seiten, die Google gut verstehen kann, sind von Vorteil. An dieser Stelle tragen On-Page-SEO-Maßnahmen also auch zur erfolgreichen Suchmaschinenwerbung bei.

Zusammenspiel mit bestehenden Kampagnen

Bestehenden Kampagnen eines Anbieters sollen die dynamischen Anzeigen nicht in den Weg kommen: Dynamische Anzeigen werden nur dann geschaltet, wenn keine andere Anzeige des Anbieters an der Anzeigenauktion für eine Suchanfrage teilnimmt. Manuell erstellte Anzeigen haben also immer Vorrang, selbst wenn ihr Anzeigenrang (Gebot x Qualitätsfaktor) niedriger ist.

Auswertung

Dynamische Suchanzeigen lassen sich ähnlich wie normale Kampagnen auswerten. Google gewährt hierzu einen Einblick in die Suchanfragen, allerdings nur solche, die auch zu Klicks geführt haben. Dabei zeigt Google auch, welche Überschrift und welche Zielseite verwendet wurden.

Für Werbetreibende können dynamische Suchanzeigen deshalb auch dazu dienen, weitere, möglicherweise interessante Suchbegriffe zu finden, die dann später ganz normal beworben werden.

Einschätzung

Das Konzept der dynamischen Suchanzeigen klingt nach Revolution: Eine einfache Möglichkeit, kleine oder große Websites, sogar riesige Sortimente umfassend zu bewerben, ohne auf teure oder komplizierte Tools oder gar Handarbeit angewiesen zu sein. Wird jetzt die Hälfte der SEM-Spezialisten arbeitslos? Nein, ich glaube nicht.

So schön das Konzept auch ist: Wenn Automatisierung und Semantik zusammentreffen, sind die Ergebnisse erfahrungsgemäß eher bescheiden. Wer Keyword-Tools benutzt oder mal einen Blick in die AdWords Werbechancen geworfen hat, weiß, was ich meine: Für eine Maschine sicher eine herausragende Leistung, aber ein Mensch ohne Vorwissen hätte vieles besser hinbekommen.

Geringe Erwartungen?

Aufhorchen lässt mich auch die Art, wie Google die dymischen Anzeigen kommuniziert. Da ist von solider Performance die Rede, 5-10% mehr Klicks und Conversions und zufriedenstellendem ROI. Das würde man schon hierzulande als zurückhaltend bezeichnen, aber für amerikanische Verhältnisse…

Google zitiert auch einen Kunden, der herausragende Erfahrungen mit über 50% mehr Conversions gemacht hat, gibt auf Search Engine Land aber an, dass der Conversion-Zuwachs von 5-10% der Durchschnitt ist. Wie repräsentativ die Zahlen sind, ist allerdings nicht abzuschätzen: Laut Google haben bisher einige hundert Werbetreibende Zugriff auf dynamische Suchanzeigen gehabt, was hauptsächlich größere Agenturen in den USA sein dürften.

Kleine Anbieter mit schlecht gepflegten Konten dürften tendenziell größeres Verbesserungspotenzial durch dynamische Suchanzeigen haben. Allerdings: Ohne eine für Suchmaschinen halbwegs verständliche Website werden auch dynamische Anzeigen wirkungslos sein.

Insgesamt denke ich, dass dynamische Suchanzeigen theoretisch viel Potenzial haben, man sich aber wohl nicht zu viel davon versprechen sollte. Nicht zu vernachlässigen bleibt die Möglichkeit, mit dynamischen Anzeigen interessante neue Suchbegriffe zu finden. Einen Versuch sollte es Wert sein.

Ausprobieren

Wer das Feature ausprobieren möchte, kann dies im Moment nur im Rahmen des internationalen Betatests tun. Zugang bekommt man über seinen AdWords-Ansprechpartner oder ein Formular. Die Chancen, kurzfristig aufgenommen zu werden, schätze ich aber als eher schlecht ein. Wer Glück hat, wird von Google benachrichtigt und findet ein neues Tab (zwischen Anzeigenerweiterungen und Dimensionen) im AdWords-Account.

Quellen

Einen umfangreichen, lesenswerten Post mit Erfahrungen, Screenshots und Einschätzungen aus dem Beta-Test hat Mark Ballard im RKG Blog veröffentlicht. Wer es genau wissen will findet außerdem bereits alle Details in der AdWords-Hilfe (aktuell nur auf Englisch verfügbar).

Das Ende der Google-Auswertungen? Google kappt (zum Teil) Referrer-Informationen

19. Oktober 2011 | Von in SEO | 5 Kommentare

Ein kurzer Blog-Beitrag hat einen kleinen Sturm der Entrüstung unter SEOs ausgelöst:

Making search more secure: Accessing search query data in Google Analytics

Also: Zukünftig soll es so sein, dass eingeloggte Google-Nutzer auf die SSL-Version von Google verwiesen werden. Und wenn diese sich dann auf eine andere Website durchklicken, soll dann die Suchanfrage nicht mehr im Referrer übermittelt werden:

“[...] will no longer report the query terms that the user searched on to reach your site”

Google selber meint, dass das nur einen geringen Anteil der Nutzer betreffen wird:

“Keep in mind that the change will affect only a minority of your traffic”

Aber trotzdem: Der Verlust der Suchanfragen scheint vielen schon vorab weh zu tun.

Grundsätzlich wird das meiner Meinung nach wenig ändern. Wenn es wirklich nur ein gewisser Anteil der Besucher ist, werden ja nach wie vor Suchanfragen übermittelt. Wenn man davon ausgeht, dass die wichtigen Suchanfragen auch von nicht eingeloggten Menschen gesucht werden, sollte sich an der Top-Liste der Suchanfragen im Reporting nichts ändern. Die Zahlen verringern sich idealerweise alle um denselben Faktor.

Die Anzahl der über die Suchmaschine kommenden Besucher wird sich hingegen nicht ändern, weil der Referrer ja nach wie vor übertragen wird – nur eben ohne Suchanfrage.

Für SEOs wird also nach wie vor genug Futter bleiben, um anhand der übermittelten Suchanfragen permanent an den Websites und deren Inhalten zu arbeiten.

Wer noch mehr zum Thema lesen möchte:

OpenLinkGraph-API: Funktioniert…

17. Oktober 2011 | Von in Linkbuilding, SEO | 5 Kommentare

Nachdem SISTRIX heute eine E-Mail verschickt hat, dass die Daten aus dem OpenLinkGraph nun auch gut per API erreichbar sind, habe ich gleich mal dafür die nötigen Funktionen für unsere Library geschrieben.

Es gibt zwei API-Aufrufe. Einmal links.overview, die zu einer Domain Metriken liefert, z. B.

<response>
<api_key>

</api_key>

<method>
links.overview
</method>

<answer>
<total num=”5616″/>
<hosts num=”453″/>
<domains num=”394″/>
<networks num=”363″/>
<class_c num=”281″/>
</answer>

<credits used=”25″/>
</response>

25 Credits finde ich fast ein wenig zu happig, um damit mal eben tausende von Domains zu überprüfen (was wir gerne mit SEOmoz-Daten machen). Hier sollte noch einmal gegengesteuert werden.

Und dann der Aufruf links.list, der eine Liste aller Backlinks liefert, z. B.

<response>
<api_key>

</api_key>

<method>
links.list
</method>

<answer>
<link url.from=”http://web-fortbildung.de/webkataloge.php?n=s” text=”suchradar.de ” url.to=”http://www.suchradar.de/verzeichnis/”/>

</answer>

<credits used=”250″/>
</response>

Hier zumindest eine gute Sache: Es werden maximal 250 Credits berechnet (oder weniger, wenn es nur so viele Backlinks gibt).

Meine Meinung

Die API funktioniert erstmal grundsätzlich und ist auch sehr performant.

Bei SEOmoz und Majestic SEO hat man schon eine deutlich umfangreichere API, um vorher filtern zu können, welche Links man eigentlich abfragen möchte. Aber das kann ja noch kommen.

Auch sind SEOmoz und Majestic SEO ja auch deswegen interessant, weil diese auch eine eigene Bewertung der Linkkräfte haben (ACRank, mozRank). Das fehlt beim SISTRIX derzeit wohl auch noch.

Und: An der Preis-/Credit-Schraube sollte SISTRIX nochmal drehen…

Meine Lieblings-Sites zum Thema “Mobile”

16. Oktober 2011 | Von in SEM, SEO | Ein Kommentar

Fürs suchradar 32 (kommt ja schon in ca. zehn Tagen) habe ich noch schnell meine Lieblings-Mobile-Websites zusammengetragen. Vielleicht fällt ja noch jemandem was wichtiges ein?

Emulatoren

Android:
Ein guter Emulator wird von Google bereitgestellt:
http://developer.android.com/guide/developing/tools/emulator.html

iPhone:
Das MobiOne Test Center ist gut geeignet, die Benutzererfahrung eines iPhones zu emulieren:
http://www.genuitec.com/mobile/

Andere Plattformen:
Dieser Web-Emulator ist leider schon etwas betagt, zeigt aber gut die Beschränkungen von kleineren mobilen Endgeräten:
http://mtld.mobi/emulator.php

Blogs/Online-Magazine

Die folgenden (überwiegend deutschsprachigen) Websites liefern regelmäßig Neuigkeiten rund um das mobile Web:

www.mobile-zeitgeist.com
www.mobile-seo.de
www.mobilbranche.de
www.mobithinking.com

Datenbanken/Tools

Datenbanken für mobile Endgeräte:
wurfl.sourceforge.net
www.deviceatlas.com

Mobiles Framework, um Sites für alle mobilen Endgeräte zu entwickeln:
www.jquerymobile.com

Qualitätsfaktor und Zielseiten – Die Vorschau entscheidet

9. Oktober 2011 | Von in SEM | 11 Kommentare

Vor ein paar Tagen hat Google eine Änderung des AdWords Qualitätsfaktors angekündigt, welche in den nächsten Wochen weltweit ausgerollt wird. Konkret wird die Zielseite bei der Bestimmung des Qualitätsfaktors eine größere Rolle spielen. Viele Details hat Google dazu nicht mitgeteilt, so dass es nun einiges an Spekulation gibt, was dahinter steckt. Ich wage an dieser Stelle mal eine ganz neue Interpetation: Die Neuerung ist den Instant Previews geschuldet. Aber von vorne.

Offizielle Meldung

Die Meldung im AdWords-Blog gibt nicht viel preis: Die Gewichte für Relevanz und Qualität der Zielseite bei der Bestimmung des Qualitätsfaktors sollen erhöht werden, um die Nutzererfahrung zu verbessern. Das hatte man im August zunächst in Brasilien getestet und den Test dann auf Spanien, Portugal und den spanischsprachigen Teil von Lateinamerika ausgeweitet.

Google zufolge wird die Änderung bei manchen Kampagnen zu Variationen bei den angezeigten Keyword-Qualitätsfaktoren und der “typischen Anzeigenposition” führen. In einigen Wochen sollen sich die Dinge aber stabilisieren und bei den meisten Kampagnen wird es wohl zu keiner signifikanten Änderung der Gesamtperformance kommen.

Status Quo

Bei der Bewertung der Meldung muss man zunächst mal sehen, dass Google permanent am Qualitätsfaktor arbeitet. Kleine Änderungen sind alltäglich und praktisch nicht wahrnehmbar. Meiner (sich inzwischen durchsetzenden) Überzeugung nach spiegelt der Qualitätsfaktor Googles Schätzung der Klickwahrscheinlichkeit wider, so dass Google die eigenen Werbeeinnahmen maximieren kann. Verbesserungen am Qualitätsfaktor bedeuten daher, dass Google die Schätzung der Klickwahrscheinlichkeit verbessert.

Allerdings gibt es mehrere Dinge, die Google als Qualitätsfaktor bezeichnet:

  1. Nach der Formel Gebot x Qualitätsfaktor wird die Anzeigenreihenfolge bestimmt (=Anzeigenauktion). Hier muss der Qualitätsfaktor der Klickwahrscheinlichkeit entsprechen.
  2. Eine Größe, die bestimmt, ob eine Anzeige überhaupt angezeigt wird (Bestimmung des Mindestgebots).
  3. Die Zahl, die im AdWords-Account bei den Keywords steht.

Bisher galt, ganz offiziell, dass die Qualität der Zielseite in der Anzeigenauktion (1) keine Rolle spielt. Warum das so ist, ließ sich leicht erschließen: Die Zielseite sah man ja erst nach dem Klick, so dass sie keinen Einfluss auf die Klickwahrscheinlichkeit nehmen konnte.

Bei der Festlegung des Mindestgebots (2) wurde die Zielseite dagegen schon immer berücksichtigt. Jedoch war sie hier immer nur ein potenzieller Negativfaktor: Schlechte Zielseiten konnten zu hohen Mindestgeboten führen, gute Zielseiten wurden aber nicht belohnt.

Was ändert sich nun?

Wie gesagt, der offizielle Blogpost ist recht dünn, aber es gibt eine Meldung auf Search Engine Land, in der Pamela Parker einige Aussagen von Jonathan Alferness, Director of Product Management des Google Ad Quality Teams, wiedergibt. So soll die Zielseite in Zukunft auch positiv bewert werden können und:

Ads with high landing page quality will get a “strong boost” upward in the auction, according to Alferness.

Alferness gibt auch gleich noch Tipps zur Landing Page:

“What we always ask our advertisers to focus on is relevance — choose a landing page or site experience that is both relevant to the keywords that you’re targeting and also a good experience for end users,” said Alferness.

Interpretation

Berücksichtigt man Googles Interessen, muss man erst mal skeptisch sein. Wenn der Qualitätsfaktor in der Anzeigenauktion der Klickwahrscheinlichkeit entspricht, führt dies für Google nachweislich zum optimalen (gewinnmaximalen) Ergebnis. Die Klickwahrscheinlichkeit zu schätzen ist allerdings ein extrem schwieriges Unterfangen, wofür Google sehr, sehr viele Signale auswertet. Jedes zusätzliche, noch so kleine Signal, das die Schätzung verbessert, führt Google etwas näher ans Optimum.

Umgekehrt führt aber jede Verwässerung wieder weg vom Optimum, kostet also Geld. Dass Google genau dies tut, indem mit der Zielseite ein Faktor, der nichts mit der Klickwahrscheinlichkeit zu tun hat, berücksichtigt wird, erscheint abwegig.

Doch dank der Instant-Preview-Funktion hat die Zielseite inzwischen doch etwas mit der Klickwahrscheinlichkeit zu tun. Denn hierdurch kann der Nutzer die Zielseite schon vor dem Klick sehen, was die Klickentscheidung maßgeblich beeinflussen kann.

instant-preview-amazon-laufschuhe

Vor diesem Hintergrund erscheint es plötzlich nur logisch, dass Google die Zielseite auch bei der Schätzung der Klickwahrscheinlichkeit mit einbeziehen sollte. Anstatt von der Qualität der Zielseite sollte man dann treffender von der Qualität der Vorschau zu sprechen. Dass Google die Details für sich behält und nur Vorteile für Nutzer (“better quality experience for the users”) und Werbetreibende (“Belohnung” guter Zielseiten) beleuchtet, ist aber nichts Neues.

Bedeutung

Wie wichtig die Berücksichtigung von Zielseiten bzw. Instant Previews im Qualitätsfaktor sein wird, lässt sich nicht abschließend beantworten. Google schreibt (im US-Blog wohlgemerkt), dass es bei den meisten Kampagnen wohl keine signifikante Änderung der Gesamtperformance geben wird. Dem entgegen steht die oben wiedergegebene Aussage zum “strong boost” für Anzeigen mit guten Zielseiten.

Ich denke, die Bedeutung hängt maßgeblich davon ab, wie wahrscheinlich es ist, dass ein Nutzer das Instant Preview nutzt. Angenommen, im US-amerikanischen Raum wird die Funktion häufiger genutzt als hierzulande, dann müsste die Gewichtung der Zielseite hierzulande entsprechend geringer ausfallen. Falls Google feststellt, dass Nutzer zu bestimmten Uhrzeiten oder mit bestimmten Browsern häufiger die Instant-Funktion nutzen, könnten auch solche Kriterien über die Gewichtung der Zielseite entscheiden.

Was ist eine gute Landing Page?

Wenn Werbetreibende von der Berücksichtigung von Zielseiten profitieren wollen, müssen sie zuerst mal verstehen, was Google für eine gute Landing Page hält. Google hat dazu schon vor langer Zeit Richtlinien veröffentlicht, welche im Hinblick auf die Bewertung von Zielseiten nicht unbedingt weiterhelfen. Denn Dinge wie ob das werbende Unternehmen sein Tätigkeitsfeld korrekt beschreibt oder Produkte wie vereinbart liefert, lassen sich automatisiert einfach nicht abprüfen. Auch haben viele Aspekte keinen Bezug zum Instant Preview.

Leicht abzuprüfen ist dagegen, ob Keywords auf der Zielseite vorkommen. Da Fundstellen in der Vorschau auch noch hervorgehoben werden, kommt diesen nun tatsächlich eine Bedeutung zu.

instant-preview-runnerspoint-laufschuhe

Dass man eine schlechte Landing Page nachhaltig aufpäppeln kann, indem man die Keywords irgendwo ganz klein unterbringt, wage ich aber zu bezweifeln. In der Vorschau lässt sich für Nutzer schnell feststellen, ob eine Seite hält, was sie verspricht.

Damit wären wir bei einem anderen, vermutlich sehr wichtigem Kriterium für die Qualität der Zielseite bzw. der Vorschau: Die Klickrate der Vorschau. Wenn viele Nutzer nach Ansicht der Vorschau klicken, war die Vorschau offenbar gut. Wenn Nutzer aber die Vorschau sehen und doch lieber weitergehen, wäre auch das ein Signal, das Google berücksichtigen müsste.

Grundsätzlich gilt beim Qualitätsfaktor immer, dass historische Daten wichtiger sind als irgendwelche abgeleiteten Berechnungen. Solange keine historischen Daten zu Klickraten vorliegen, muss sich Google auf Dinge wie eine Berechnung der Zielseiten-Relevanz verlassen. Sobald aber tatsächliche Erfahrungswerte vorliegen, werden diese herangezogen. Wer also die perfekte Zielseite für Googles Algorithmus baut, wird damit nur so lange Erfolg haben, bis Google konkrete Nutzungsdaten gesammelt hat.

Konsequenzen für Werbetreibende

Werbetreibende stehen nun eigentlich vor zwei Herausforderungen. Erstens müssen Zielseiten so gestaltet werden, dass sie als Vorschau zum Klick einladen. Und zweitens muss Google das der Seite auch ansehen können. Weil tatsächliche Erfahrungswerte mehr zählen als Googles automatische Einschätzung der Seitenqualität, ist der erste Punkt mittel- bis langfristig ausschlaggebend.

Insgesamt denke ich allerdings, ändert sich damit in der täglichen Arbeit nicht viel. Denn dass Zielseiten relevant, aufgeräumt und vertrauenserweckend sein sollten, gilt nicht erst seit dem Instant Preview. Keywords angemessen auf den Zielseiten zu platzieren, erscheint mir sinnvoll, allerdings sollte dies im Hinblick auf die Vorschau erfolgen, nicht um den Algorithmus zu narren. Wer sich seine Zielseiten mit Keywords vollstopft oder diese unten ganz versteckt platziert, tut sich damit wahrscheinlich keinen Gefallen.

suchradar-Preview: Link-Datenbanken im Vergleich (Majestic SEO, SEOmoz und OPENLINKGRAPH)

9. Oktober 2011 | Von in Linkbuilding, SEO | 22 Kommentare

Für das nächste suchradar habe ich einen Artikel zum Thema Link-Datenbanken geschrieben. Dort werden die von Majestic SEO, SEOmoz und OPENLINKGRAPH gelieferten Daten miteinander verglichen. Wir haben auch “außer” Konkurrenz die Ergebnisse von Google und Blekko mit reingenommen.

Für die vollständige Analyse und auch die Bewertung der Ergebnisse möchte ich natürlich auf das suchradar 32 verweisen (Fokus-Thema “Mobile SEO/SEM”, erscheint Ende Oktober). Aber zwei Tabellen möchte ich hier trotzdem schon mal zeigen.

Wir haben insgesamt die Backlinks von fünf .de-Domains über die fünf genannten Quellen geholt und dann die Daten dann ausgewertet.

Vor allem haben wir zunächst die gelieferten URLs überprüft, ob dort auch wirklich ein Link zu finden ist. Manche Seiten existieren nicht mehr, manche Sites sind einfach down, manche Links wurden entfernt.

Der “Ausschuss” ist dabei recht unterschiedlich hoch. Vor allem Majestic SEO hat hier sehr hohe Werte, wenn man denn deren Historic Index befragt:

Bild

Und dann haben wir die Ergebnisse aller Dienste zusammengewürfelt, um zu prüfen, wie hoch die Abdeckung der Link-Datenbanken sind. Auch sieht man, wie viele Links es gibt, die nur von einer einzigen Quelle geliefert werden. (Dabei wurde übrigens immer auf Domain- und nicht auf URL-Ebene geprüft)

Bild

Hier sieht man, dass die Abdeckungen der einzelnen Datenbanken recht unterschiedlich sind. Man sieht aber auch, dass es keine Datenbank schafft, ein vollständiges Abbild der Verlinkungen anzuzeigen. Wer also möglichst viele Verlinkungen haben möchte, muss wohl alle verfügbaren Datenbanken abfragen und die Ergebnisse dann kombinieren.

Anhand der Ergebnisse war ich von OPENLINKGRAPH als “Neueinsteiger” übrigens recht begeistert. Hierzu haben wir im suchradar übrigens auch ein Interview mit Johannes Beus.

Mehr zu dem Thema dann im suchradar 32…

Google Trusted Stores: Mehr Informationen über das neue Siegel für Shop-Betreiber

4. Oktober 2011 | Von in Sonstiges | 13 Kommentare

Google hat mehr Informationen zum neuen Programm “Google Trusted Stores” vorgestellt. Dabei handelt es sich um eine System, bei dem Shops, die besonders gut sind, ausgezeichnet werden. Diese erhalten ein Badge, das sie auf ihrer Website anzeigen können.

Bild

Was “besonders gut” ist, definiert Google so:

Google Trusted Stores have proven track records of reliable shipping and great customer service. Google evaluates and monitors participating merchants on order delivery and issue resolution, to ensure a high quality online shopping experience.

Es scheint hier also keine harte Metrik zu geben. Vielmehr wird sich das in Relation zu anderen Shops definieren.

Interessant für Kunden ist der Punkt, dass es eine “Purchase Protection” geben wird. Also: Wenn der Kunde für ein Produkt bezahlt und der Shop dieses in irgendeiner Form nicht korrekt liefert, kann der Kunde hierfür eine Entschädigung von Google erhalten.

Diese ist auf 1.000 USD begrenzt. Man muss auch beim Kauf explizit die “Purchase Protection” wählen. Es gibt hier natürlich viele Ausnahmen und Regeln. So gibt es bestimmte Produkte, für die es das System nicht gibt (Körperteile (?), Drogen, Feuerwerk, Wundermittel, Medizin, Dienstleistungen, Immobilien). Außerdem schreitet Google nicht ein, wenn noch andere gesetzliche Regelungen greifen. Mehr Informationen zu den Regelungen findet man übrigens hier.

Google bietet für Google Trusted Stores derzeit nur einen Test an, für den man sich anmelden kann. Grundsätzlich würde ich das jedem Shop erstmal empfehlen, um mehr über das System zu erfahren. Zumindest scheint es so zu sein, dass das System nicht nur für die USA gilt (wie sonst eigentlich üblich).

In jedem Fall scheint mir Google Trusted Stores ein Gegenprodukt zu dem in Deutschland weit verbreiteten Anbieter Trusted Shops zu sein – auch wenn Trusted Shops natürlich noch mehr Leistungen anbietet. Deren Siegel dürfte auch für Endkunden derzeit wohl sehr bekannt sein. Aber: Google hat natürlich auch einen starken Namen und könnte den Markt hier relativ schnell aufrollen.

Wir bleiben am Ball & werden erstmal alle Kunden informieren, dass sie sich dafür anmelden. Google wird ohnehin recht wählerisch sein, so dass kleinere Shops hier im ersten Lauf wohl kaum zum Zug kommen. Mal schauen…

Google Produktsuche: Shop- und Produktbewertungen unter der Lupe

2. Oktober 2011 | Von in SEO | 4 Kommentare

Wir überprüfen regelmäßig, aus welchen Quellen die Bewertungen stammen, die für Shops in der Google Produktsuche erscheinen. In dieser Woche ist ein neuer Dienst hinzugekommen, den ich zwar für uninteressant halte. Aber die Tendenz dahinter gefällt mir definitiv.

Hier ist der Eintrag in der Produktsuche:

Bild

Interessant ist die Zielseite (http://www.webuser.co.uk/websites/website-reviews/home-and-household/decorating-and-interiors/24327/1/ikea). Hier gibt es weder einen Link auf IKEA.com noch gibt es dort besonderes Markup, aus dem Google heraus erkennen könnte, dass es sich um einen Testbericht für IKEA.com handelt.

Google könnte diese Bewertung natürlich auch über irgendeine Schnittstelle oder über eine Partnerschaft bekommen, aber ich glaube das eher nicht. Vielmehr glaube ich, dass Google immer besser in der Lage ist, den Inhalt von Seiten zu verstehen. Es handelt sich ja auch irgendwie um eine Bewertung – wenn auch keine auf einer Punkteskala.

Wenn dem so wäre, könnte Google natürlich auf einmal auf viel mehr Bewertungen zurückgreifen. Jede Meinungsäußerung in einem Forum könnte grundsätzlich als Bewertung herangezogen werden.

Seit einigen Tagen schon zeigt Google ja bei den Erfahrungsberichten auch den Typ “redaktionelle Berichte” an, in den Google auch den Beitrag von Webuser.co.uk einsortiert hat:

Bild

Das gibt es übrigens auch bei Produkten:

Bild

Auch bei diesen Beiträgen scheint kein besonderes Markup notwendig zu sein. Der Beitrag von Areamobile hat zwar umfassendes Markup:

Bild

Aber der Beitrag von Tweakers.net hat keinerlei Markup:

Bild

Google holt sich Bewertungen für Shops und für Produkte aus vielen, sehr unterschiedlichen Quellen. Dabei scheint es immer unwichtiger zu werden, dass auf den Seiten jeweils Markup vorkommt (auch wenn es sicherlich nicht schadet – im Gegenteil). Google wird wohl immer besser darin, anhand der Seite (Struktur, Text) zu erkennen, um was es sich handelt und um welchen Shop oder welches Produkt es eigentlich geht.

Für Online-Shops bedeutet das sicherlich, dass diese sich noch stärker um die Meinung der Community kümmern sollten. Sicherlich können hierzu auch nach wie vor Bewertungsportale genutzt werden. Aber auch vollkommen unstrukturierte Bewertungen auf fremden Websites können für Google interessant werden.

Produktbewertungen

Google zeigt seit einiger Zeit Produktbewertungen an, die z. T. auch von Online-Shops eingesammelt werden. Gerade in Nicht-Technik-Branchen (also keine Handys, Fernseher, …) fehlen aber noch auf breiter Masse Bewertungen. Hier besteht ein konkretes Potenzial für Online-Shops, die als einzige eine Bewertung für ein Produkt vorweisen können.

Der Nutzer bewegt sich leider überwiegend auf Google, könnte aber auch von dort auf den Shop wechseln und so wahrscheinlicher bei dem Händler kaufen, der die Bewertung für das Produkt hat. Shops müssen also eine grundsätzliche Frage bei Produktbewertungen beantworten:

  1. Glaube ich, dass Besucher eher bei mir kaufen, wenn ich als einziger eine Produktbewertung für ein Produkt habe?
  2. Oder glaube ich, dass Besucher dann zwar bevorzugt das Produkt mit der guten Bewertung kaufen, aber eben nicht bevorzugt in meinem Shop? Also: Helfe ich so vielleicht den anderen Shops, bestimmte Produkte besser zu verkaufen?

Ein Beispiel für diese Frage: Wenn ich nach “kinderbesteck” suche, sehe ich viele unterschiedliche Produkte, von denen eines immerhin eine Bewertung hat – die anderen Produkte haben keine Bewertungen:

Bild

Die Produktbewertung stammt von Karstadt. Wenn ich nun aber auf das Produkt klicke, sehe ich Karstadt als einen Händler unter vielen. Vor allem ist Karstadt nicht der preiswerteste Anbieter, wenn man sich den Endpreis anschaut:

Bild

Welche Strategie hier richtig ist, wird nicht einmal Karstadt selber wissen, weil sie es einfach nicht messen können. Nur Google kennt hier die Antwort, wird sich dazu aber wohl nicht äußern.

Ich bin mir also absolut nicht sicher, ob wir Shops raten sollten, ihre Bewertungen auch gezielt an Google zu übermitteln…


|