Google in die Karten schauen: Welche Links zeigt Google in den Webmaster Tools an? Und warum?
Ich habe in den letzten Tagen mit einer Auswertung angefangen, die sich an meine Auswertung der Link-Datenbanken anschließt.
Mir geht es dabei um die Frage, wie gut eigentlich die Link-Daten, die Google über die Google Webmaster Tools zur Verfügung stellt, im Vergleich zu den Link-Datenbanken SEOmoz, Majestic SEO und OpenLinkGraph sind. Und es geht natürlich darum, ob man daraus etwas ableiten kann (siehe unten: ich glaube, dass man das kann).
Dafür habe ich mir vier Test-Domains herausgesucht, bei denen ich Zugriff auf die Webmaster Tools habe und bei denen es weniger als 1000 Verlinkungen gibt. Denn: Die Webmaster Tools liefern mir nur die Top 1000 Links. Alles andere würde also die Statistik verfälschen.
Ich will dabei u. a. ermitteln, wie hoch der Anteil der gemeinsam gefundenen Links ist und wie viele “Unique Links” es bei den Webmaster Tools und den Link-Datenbanken gibt.
Die Daten werden derzeit noch zusammengetragen und validiert. Das dauert dann doch länger, als ich gedacht habe.
Aber eine interessante Sache ist mir dabei schon aufgefallen. Ich habe mir die Links angeschaut, die von den Link-Datenbanken geliefert werden und nicht von den Webmaster Tools. Dann habe ich diese Links daraufhin überprüft, ob Google diese verlinkenden Seiten überhaupt im Index hat.
Interessant wird es, weil es durchaus viele Seiten gibt, die Google im Index hat. Die darauf befindlichen Links werden aber in den Google Webmaster Tools nicht angezeigt.
Jetzt könnte man ja argumentieren, dass es sich dabei um neue Links handelt, die einfach noch nicht den Weg in die Webmaster Tools gefunden haben. In den folgenden Fällen ist das aber nicht der Fall. Die Links gibt es dort schon seit einiger Zeit.
Beispiel 1:
http://swissonlinemarketing.ch/content/index_ger.html verlinkt auf www.suchradar.de
Beispiel 2:
http://www.rab-friedrich-ramm.de/linkliste14.html verlinkt auf www.suchradar.de
Meine Meinung
Im ersten Beispiel ist der Link zwar im Quellcode zu sehen, aber der Link selber befindet sich in einer sehr langen Linkliste und ist auch nicht immer sichtbar.
Im zweiten Beispiel befindet sich der Link auf einer Seite mit ganz vielen anderen Links (ca. 250 ausgehende Links).
Ich glaube, dass die Google Webmaster Tools hier zeigen, dass Google bestimmte Links einfach aussortiert. Bei den mir zur Verfügung stehenden Domains habe ich leider keine dabei, die über irrelevante Footer-Links o. ä. verfügen, aber auch in diesen Fällen würde ich erwarten, dass Google viele davon einfach aussortiert.
Ich habe in den Unique Links der Google Webmaster Tools übrigens auch sehr viel anderen Schrott gefunden, der meiner Meinung nach auch kein positives Licht auf die Google-Algorithmen wirft. Aber in diesen Fällen waren die Links zumindest in formaler Hinsicht in Ordnung (also keine übervollen Linklisten u. ä.).
Ich kann mir hier vorstellen, dass Google unterschiedliche “Schalen” hat, die wertlose Links herausfiltern können. Die beiden Beispiele oben wären dann ein Fall für einen Filter, der sich Links auf Seitenbasis anschaut. Viele andere Links werden wohl erst später bewertet, wenn unterschiedliche Seiten einer Website zeitgleich betrachtet werden können.
In jedem Fall zeigt das ein grundlegendes Problem der Link-Datenbanken, vor dem SEOs stehen: Nicht jeder Link, der als Potenzial auftaucht, ist auch wirklich ein lohnenswerter Link. Viele minderwertige Links streuen in die Auswertungen rein, so dass diese einen Teil der Aussagekraft verlieren.
Hier sind also sowohl die Link-Datenbanken als auch die SEOs in der Pflicht, gute von schlechten Links zu unterscheiden. Die Link-Datenbanken werden das aber wohl so schnell nicht angehen, weil ich den Eindruck habe, dass die Anzahl der gefundenen Links durchaus ein Marketing- und Verkaufsargument ist.
Die gesamte Auswertung…
…dauert wie gesagt noch ein paar Tage. Ich werde diese auf der SEOkomm in Salzburg (25. November) im Track “Link-Datenbanken im Vergleich” (http://www.seokomm.at/vortrag-info.html?vortrag=1600) vorstellen. Und natürlich im nächsten suchradar, das dann im 14. Dezember erscheinen wird.
Markus Hövener
Markus Hövener ist Gründer und SEO Advocate der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Buchautor, Podcaster und Autor vieler Artikel und Studien rund um SEO.
Markus hat vier Kinder, spielt in seiner Freizeit gerne Klavier (vor allem Jazz) und genießt das Leben.
Neueste Artikel von Markus Hövener (alle ansehen)
- Recap zur SMX München: Die wichtigsten Take-Aways [Search Camp 314] - 19. März 2024
- Sichtbarkeit und/oder Traffic gehen nach unten: Woran kann’s liegen? [Search Camp 313] - 12. März 2024
- Wie wichtig ist es, allen SEO-News zu folgen? [Search Camp 312] - 5. März 2024
- Das Online-Marketing-Playbook für Shops - 28. Februar 2024
- SEO-Monatsrückblick Februar 2024: Suchvolumina, neues Shop-Markup + mehr [Search Camp 311] - 27. Februar 2024
Oktober 31st, 2011 at 12:33
guggst du Wochen später filtern die andere Links raus,
es ist müßig das zu probieren
den Zufall wirst auch du nicht knacken, schon gar nicht mit so wenig Links im Vergleich 🙂
Oktober 31st, 2011 at 12:54
Ach, so müßig ist das meiner Meinung nach nicht. Hat wenig mit Zufall zu tun…
Oktober 31st, 2011 at 13:40
Interessanter Test. Da bin ich auf die Auswertung gespannt.
Oktober 31st, 2011 at 17:32
Immerhin Google es auch schon geschafft, die eigene Domain aus der Link-Liste rauszufiltern…
Wenn jetzt auch noch die vor Jahren per 301-weitergeleiteten früheren eigenen Domains nicht mehr angezeigt werden, sind wir noch ein Stück weiter…
(ich habe ein Beispiel, wo 5.000 Links von einer Domain angezeigt werden, die seit 2 Jahren komplett weitergeleitet wird und schon lange nicht mehr indiziert ist…)
Oktober 31st, 2011 at 17:41
Ja, das stimmt. Manchmal frage ich mich, ob Google da nur Mist einstreut, damit wir uns alle den Kopf darüber zerbrechen 🙂
November 3rd, 2011 at 15:04
Netter Artikel und interessante Beobachtungen.
Ich wäre da aber grundlegend skeptisch, denn die Simulation eines “natürlichen” Linkaufbaus erfordert ja durchaus auch solche “nutzlos-Links” (Sicht aus Google Augen, denn ich finde, dass solche Linklisten -wenn sich auch unübersichtlich sind und oft zugeschüttet mit Links- wohl auch einen Mehrwert für den User bieten können, ist halt fallabhängig).
Es wäre doch höchst auffällig, wenn man nur noch Links baut, die Google gefallen.
Vielleicht ist das alles auch nur eine Methodik von Google um sich nicht vollständig in die Karten schauen zu lassen.
Ich wäre da mit Schlussfolgerungen / Theorien vorsichtig.
November 5th, 2011 at 15:10
Da gebe ich -mk- mit dem vorletzten Satz recht.
Zitat von Matt Cutts: “… Wir zeigen aber nicht sämtliche Backlinks an, von denen wir wissen. Diese Backlinks zeigen wir eher über die Webmaster-Tools an. Ihr könnt also eure eigenen Backlinks sehen…” – Quelle: http://googlewebmastercentral-de.blogspot.com/2011/10/braucht-man-heute-noch-einen-dmoz.html
Google zeigt im GWT nur die relevanten Backlinks an, jedoch auch nicht alle.
August 5th, 2012 at 17:13
Hi Markus, gibt es schon Neuigkeiten bezüglich deines Tests? Würde mich sehr interessieren. Bin gerade selbst dabei den Webmaster Tools etwas “auf den Zahn” zu fühlen…
Liebe Grüße
Philipp
August 6th, 2012 at 09:36
Wie schon im letzten Absatz zu lesen: Ich habe das alles im suchradar Dez 2011 dokumentiert… da sollte alles drin stehen…