Pierre Far, Webmaster Trends Analyst von Google, hat heute Vormittag eine Änderung in den technischen Richtlinien für Webmaster bekannt gegeben, die nochmal verstärkt die ohnehin bekannte Richtung von Googles künftiger Indexierung vorgibt … Das Indexierungssystem wird wesentlich mehr Wert auf eine userorientierte Website legen als zu Zeiten, wo der Googlebot dem Lynx-Browser ähnelte.

… (Übersetzung der Ankündigung: http://googlewebmastercentral-de.blogspot.de/2014/10/aktualisierung-der-technischen-richtlinien.html).

Verglichen wird das aktuelle Indexierungssystem eher mit modernen Webbrowsern – mit deren technischen Möglichkeiten. Es ist also klar: Google möchte Websites stärker wie ein echter User betrachten … und hat zumindest teilweise die Mittel dazu, denn ansonsten hätte man sich sicher nicht entschlossen, das neue System zu launchen.

Einer der Kernsätze der Ankündigung lautet:

„Wenn ihr das Crawling von JavaScript-oder CSS-Dateien in der robots.txt-Datei eurer Website nicht zulasst, wirkt sich dies unmittelbar auf die Darstellung und Indexierung eurer Inhalte durch unsere Algorithmen aus und kann zu schlechteren Rankings führen.“

In seinem Google+-Post dazu wird Pierre Far noch deutlicher:

„Let me be super clear about what this means: By blocking crawling of CSS and JS, you’re actively harming the indexing of your pages. It’s the easiest SEO you can do today. And don’t forget your mobile site either!“

Was bedeutet das?

Die Zeiten, in denen der Googlebot die Darstellung der Website inkl. ausgeführter Javascripts und CSS-Daten ignoriert, dürften sowieso schon lange vorbei sein. Inwieweit beim Ignorieren der Aussage von Pierre Far tatsächlich das Ranking leiden würde, weiß natürlich zum jetzigen Zeitpunkt noch niemand. Fakt ist: Google zieht mit dieser Ankündigung an einigen Hebeln gleichzeitig und übt Druck auf Webmaster aus. Das Lockmittel „besseres Ranking“ dürfte dabei ordentlich helfen.

Insbesondere die Prinzipien der „progressiven Verbesserung“ werden explizit angesprochen. Gemeint ist damit alles, was die Darstellung der gleichen Website auf unterschiedlichen Geräteklassen optimiert, inkl. Barrierefreiheit, mobile Nutzung, der Darstellung in Javascript-losen Browsern etc. Dabei muss berücksichtigt werden, dass es Google nicht darum geht, alle Darstellungsformen gleichzuziehen (beispielsweise durch Verzicht auf Javascript), sondern „nur“, sie für die verschiedenen Geräteklassen zu optimieren. Ein Prinzip, dem viele Webmaster leider (noch) nicht folgen (können) – die Gründe sind mannigfaltig.

Zur Auswertung bei der Indexierung durch Googlebot gehört künftig auch, dass CSS und Javascript genauer betrachtet werden. Bedeutet: Die Inhalte, Optik und Anordnung der Elemente einer Website werden nochmal stärker ausgewertet als bislang. Wer entsprechende Inhalte sperrt (zum Beispiel durch robots.txt) und die entsprechende Auswertung dementsprechend verhindert, hat langfristig das Nachsehen.

Loooooaaaading ….

Neben den „sichtbaren“ Dingen, geht es Google erneut um eine Forcierung der Ladezeiten-Thematik. Ein Teilaspekt ist dabei sicher der des „effizienteren Indexierens“ – wie es Google im Blogpost nennt. Ein anderer nach wie vor, dass Benutzer schnelle Seiten bevorzugen. Beides zusammen führt seit längerer Zeit schon dazu, dass Google die Webmaster auf schnellere Seite einschwört. Jetzt allerdings – wenn auch indirekt und zwischen den Zeilen – nochmal im Kontext von besseren Rankings.

Apropos Geschwindigkeit: Durch die mögliche Erhöhung der Last durch den Googlebot (ruft dann zusätzlich CSS und Javascript und Co. ab) sollten vor allem Besitzer großer Seiten prüfen, inwiefern die Server der höheren Last gewachsen sind und ggf. performanter gestalten.

Nein? Doch! Ohhhh …!

abruf-googlebotUm nun genau zu sehen, ob der Googlebot mit der eigenen Website klarkommt, wurde bereits vor einiger Zeit die Funktion „Abruf wie durch Googlebot“ in den Webmaster Tools aufgebohrt und u. a. um das Rendering ergänzt (s. Abbildung). Webmaster haben die Möglichkeit, sich auf diesem Wege anzuschauen, wie der Googlebot die Seite „sieht“ und ob Elemente vom Crawling ausgesperrt werden, die unter Umständen für die Darstellung der Seite wichtig sein können.

Seiteninhaber sollten dementsprechend weiter am Ball bleiben und ihre Website auf die neuen Anforderungen hin überprüfen. Natürlich gilt hierbei: Bitte nichts überstürzen! Google wird nicht morgen ein Update ausrollen, das die Rankings diesbezüglich umkrempeln wird. Aber es sollte aus mehreren Gründen nicht untergehen.

  1. Die Seitentechnik wird nochmal auf den Prüfstand gestellt (Stichwort: Stillstand ist Rückschritt).
  2. Viele Veränderungen, die nötig sind, um den Googlebot zufriedenzustellen, helfen oftmals auch Benutzern weiter (s. Verkürzung der Ladezeiten, Darstellung in unterschiedlichen Browsern, Javascript-Probleme, Sperrung von Inhalten usw.)
  3. Und nicht zuletzt: Man hat die Möglichkeit, sich bei Google auf Dauer populärer zu machen

In diesem Sinne …

About Maik Bruns

Maik Bruns ist Berater für SEO in der Online-Marketing-Agentur Bloofusion, Online-Marketing-Enthusiast und schreibt zu diesen Themen im Bloofusion-Blog Internetkapitäne, im SEO-, SEA- und E-Commerce-Magazin suchradar und natürlich bei Twitter und Google+.

Daneben ist Maik Bruns außerdem glücklich verheirateter Papa, Marketing- und Analytics-Fan (Analytics Qualified Individual), leidenschaftlicher Fotograf, Bildbearbeiter und Volleyballer.

Maik Bruns ist unter anderem in den folgenden sozialen Netzwerken zu finden: