In den letzten Tagen gab es wieder einige neue Informationen zum Farmer/Panda Update, die ich hier gerne kurz “verdauen” möchte.

Site-wide oder nicht?

Zunächst darf man nicht vergessen, dass das Panda-Update nicht unbedingt Sites als ganzes bestraft/abwertet. Am Beispiel von Business.com kann man sehen, dass diese viele Rankings verloren haben. Das bedeute aber nicht, dass die jeweilige Seite gar nicht mehr gefunden werden kann.

Beispiel:

  • “leather apparel” zeigte vor dem Update gute Rankings für Business.com, aber jetzt ist die Site nicht mehr in der Top 100 dafür zu finden.
  • Für “leather apparel women” ist die Site aber sehr gut zu finden (Google #3).
  • Wenn man die Suche noch näher auf die Seite einschränkt – z. B. mit “leather apparel women information” – findet man die Seite auf bei Google auf #1.

Also: Wer vom Panda-Update als “schlecht” eingestuft wird, verliert sicherlich Traffic, hat im Long Tail aber nach wie vor Chancen.

Genau hier liegt ja auch eine Schwäche der SISTRIX-Auswertungen (oder der von anderen SEO-Tools): Die Sichtbarkeitswerte werden auf der Basis von bekannten Suchbegriffen gewertet – oftmals eben Zwei- oder Drei-Wort-Phrasen. Ein Großteil des Long Tails findet dort aber kein Gehör, so dass der Traffic-Abfall nicht unbedingt mit der Veränderung des Sichtbarkeitswertes zusammenfallen muss.

Doch site-wide?

Lesenswert ist in jedem Fall die Zusammenfassung der Äußerungen auf der SMX West bei Search Engine Land:

The Farmer/Panda Update: New Information From Google and The Latest from SMX West

Wer das alles liest (was ich nur empfehlen kann – danke an Vanessa Fox für die extrem gute Zusammenfassung), erfährt das Folgende:

  1. Wenn man auf seiner Website Seiten mit gutem und Seiten mit schlechtem Content hat, kann das auch die Rankings für die guten Seiten beeinflussen. Es gäbe dann eine Art Quality Score für die gesamte Website, die die Rankings insgesamt nach unten reißen kann.
  2. Wenn die gesamte Website – also auch die guten Seiten – betroffen ist, sollte man die schlechten Seiten entweder entfernen oder per Noindex/robots.txt für Suchmaschinen sperren.
  3. Man sollte sich nicht nur den Content an sich, sondern auch das Template anschauen. Gibt es zu viele Werbeblöcke? Gibt es zu viele Elemente, die vom Content “ablenken”?

AdSense auf dem absteigenden Ast?

Interessant am dritten Punkt ist ja, dass Google sich hier ein wenig selber in den Fuß schießen kann, denn viele der Werbeeinblendungen – vor allem auf Low-Level-Sites – stammen ja wohl von AdSense. Also wäre doch meine erste Idee, dass ich AdSense ausbaue. Es scheint hier so, dass Google bereit ist, einen Teil seiner Einnahmen für Qualität zu opfern. Die internen Diskussionen dazu würden mich wirklich interessieren.

Interessant ist hier in jedem Fall der folgende Kommentar:

Matt said that having advertising on your site does not inherently reduce its quality. However, it is possible to overdo it.

Was denn sperren?

Die Idee, Low-Quality-Seiten zu sperren, ist ja ganz gut – nur dass Google einem eben nicht mitteilt, welche Seiten welche Qualität haben. Da muss man dann schon ran – z. B. über die Google Webmaster Tools, was je nach Größe der Site aber schon eine extreme Arbeit ist.

Quality Score

Die Idee mit dem Quality Score finde ich gut, weil sie eigentlich recht passend ist. Wenn der Quality Score der Anteil der schlechten Seiten an allen Seiten ist, erklärt das, warum es manche Sites hart trifft und manche eher nicht. Wer eben nur ein paar Low-Quality-Seiten hat, verliert dafür die Rankings und verliert insgesamt ein paar Prozentchen Rankings bei den guten Seiten – aber das merkt man vielleicht gar nicht.

Weniger Crawling

Interessant ist auch noch ein weiterer Kommentar:

Matt also noted that if Google determines a site isn’t as useful to users, they may not crawl it as frequently.

Es kann also nicht anschaden, regelmäßig die Crawl-Daten in den Webmaster Tools zu überprüfen.

White Lists

Ich empfehle auch, den Artikel “Google & Bing Have Whitelists – “Exception Lists” – For Some Algorithm Signals” zu lesen. Wenn man den Informationen glaubt, haben Google und Bing durchaus die Möglichkeit, Websites von den negativen Auswirkungen von Updates zu befreien, indem sie bestimmte Signale anders gewichten.

Wer also hart vom Update getroffen wird und glaubt, dass die Einschätzung durch Google falsch ist, sollte sich durchaus an Google wenden, um so vielleicht eine Ausnahme zu erwirken.

Alles nicht so schlimm

Und zum Schluss ein Kommentar, der Mut macht:

He said that the type of low quality content targeted by the changes are more prevalent in the United States than in other countries, so the impact won’t be as strong outside the U.S.