Im Moment arbeite ich an einem suchradar-Artikel, in dem ich mal überprüfe, wie die von einem SEO-Tool geschätzten Traffic-Daten eigentlich zum realen Traffic passen.
In dem Zusammenhang schaue ich mir gerade auch mal wieder die Google Webmaster Tools an, die mir ja zumindest für eigenes Websites Traffic-Daten bereitstellen. Prinzipiell sind die ja auch sehr interessant, weil ich daraus konkrete Handlungsempfehlungen ableiten kann. Zum Beispiel:
- Suche Suchbegriffe, die eine für ihre Position unterdurchschnittliche Klick-Rate haben
- Überprüfe, warum die Seite so schlecht klickt (z. B. Titel und Meta Description) optimieren
Aber leider sind die Daten nicht sehr genau, wie die beiden folgenden Beispiele zeigen.
Falsche Aggregation
Das Grundproblem, das ich mit den Daten sehe, ist, dass sie aggregiert sind. Ein Beispiel:
Also: Angeblich hat das Keyword, um das es hier geht, eine durchschnittliche Position von 11. Wenn das so wäre, würde ich mir dieses Keyword und die Rankings genauer anschauen, weil man es vielleicht mit ein wenig Aufwand auf die erste Seite bringen könnte.
Leider nur stimmt das eben nicht, wenn man sich die Positionsdaten unten anschaut. Demnach kommt der meiste Traffic über die Position 2, was auch unseren externen Auswertungen entspricht. Ich hätte Verständnis für eine angezeigte Durchschnittsposition von 3 oder 4, aber 11? Das ergibt weder in Bezug auf die Impressions noch auf die Klicks Sinn.
Quantisierte Daten
Ein weiteres Problem liegt darin, dass die Daten quantisiert sind. Ein Beispiel:
Rein rechnerisch ist hier alles OK: 250 Clicks, 2.500 Impressionen ergeben eine Klickrate von 10%.
Leider nur sind die Daten quantisiert, also in diskrete Werte einsortiert. Bei den Klicks gibt es ober- und unterhalb von 250 die Werte 320 und 200, bei den Impressionen ober- und unterhalb von 2.500 die Werte 3000 und 2000.
Wenn man annimmt, dass die Quantisierung auf der Hälfte zwischen zwei Werten passiert, könnte die reale Klickrate hier zwischen
225 Klicks / 2750 Impressions = 8,2%
oder
285 Klicks / 2250 Impressions = 12,6%
liegen. Es wäre deutlich besser, wenn die CTR auf Basis der realen Traffic-Daten ermittelt würde.
Fazit
Mein Fazit ist eigentlich ähnlich wie bei vielen anderen Daten und Tools: Schau erstmal, ob Du den Daten trauen kannst. Sicherlich ist es besser als nichts, aber die Daten, die die Google Webmaster Tools für den Traffic liefern, sind alles andere als genau.
Warum interessieren wir uns eigentlich für solche Themen? Weil bei uns häufig Kunden nachfragen, wenn sich bestimmte Werte ändern. Manche Kunden nutzen Tools wie SISTRIX, Seolytics oder auch die Google Webmaster Tools und fragen uns dann, warum z. B. die Sichtbarkeitsindex-Werte schwanken. Auf Nachfrage erfahren wir dann meistens, dass sich der Traffic gar nicht geändert hat.
Deswegen schauen wir uns die ganzen Datenquellen sehr genau an – auch aber, um nicht bei uns sofort die Alarmsirenen klingeln zu lassen, wenn mal ein Wert nach unten zeigt.
Mehr dazu im nächsten suchradar 30 (kommt Ende Juni)…