Den Relaunch besser überleben: Crawling-Geschwindigkeit herabsetzen

29. Oktober 2010 | Von in SEO

Bei einem Relaunch in der letzten Woche haben wir uns für einen Schritt entschlossen: über die Google Webmaster Tools die Crawling-Geschwindigkeit herabsetzen.

Wenn man den Regler dort auf den minimalen Wert stellt, hat das recht schnell Konsequenzen (die Nulllinie rechts von “Oct”):

2010-10-29 08h41 50

Man bekommt dann auch recht schnell eine Meldung von Google:

Hallo Webmaster,

Google ermittelt anhand von Algorithmen, in welchem Umfang die einzelnen Websites gecrawlt werden. Unser Ziel ist es, möglichst viele Seiten Ihrer Website, http://www.XXXXXX.de/, zu crawlen, ohne dabei die Bandbreite Ihres Servers übermäßig zu belasten.

Sie haben für Ihre Website, http://www.XXXXXX.de/, eine sehr niedrige Crawling-Geschwindigkeit eingestellt, sodass wir nicht auf Ihren interessanten Content zugreifen können. Wir empfehlen Ihnen, die Crawling-Geschwindigkeit standardmäßig von Google bestimmen zu lassen. Möchten Sie lieber eine benutzerdefinierte Einstellung verwenden, sollten Sie die Geschwindigkeit erhöhen.

Vielen Dank

Das Webcrawling-Team von Google

Warum haben wir uns dafür entschlossen?

Es gibt viele Kunden, bei denen beim Relaunch nicht alles rund läuft. Zwei Geschichten aus der Praxis:

  1. Ein Kunde hat z. B. sein gesamtes URL-Schema geändert. Wir arbeiten dann natürlich daran, dass der Kunde seine alten URLs auf die neuen per 301-Weiterleitung umleitet. Wenn man das nicht macht, kann das sehr nachteilig sein, weil Google eben alle URLs neu abholen muss und die neuen Seiten Monate brauchen, um wieder denselben Stellenwert im Index zu bekommen. Jetzt war er aber leider so, dass die Umleitungen aus diversen Gründen beim Relaunch nicht aktiv waren.
  2. Ein anderer Kunde hatte seinen neuen Shop bereits aufgebaut, aber die neuen Seiten für die Beta-Phase auf “noindex” gesetzt. Beim Relaunch wurde dieses Robots-Meta-Tag dann leider übernommen. In diesem Fall konnte das alles sehr schnell geändert werden, aber wenn das mehrere Tage dauern würde (was schon mal passieren kann, wenn diverse Dienstleister, Protagonisten, Feiertage und Wochenenden im Spiel sind), könnte das schon Probleme bringen.

Mit dem Absenken der Crawling-Geschwindigkeit erkauft man sich also etwas Zeit, wenn denn Fehler auftreten.

Das Ganze ist natürlich sinnlos, wenn man die neue Website nach dem Relaunch nicht direkt überprüft. Wir erstellen zu diesem Zweck z. B. so genannte Kontrolllisten, in denen dann hunderte URLs von unterschiedlichen Seitentypen (Startseite, Rubrikenseiten, Profilseiten) zu finden sind. Diese werden dann direkt nach dem Relaunch überprüft, ob alles passt (HTTP-Code 200 oder 301, aber keine 404/410). Außerdem haben wir unseren SEO Safeguard – unser Inhouse-Überwachungstool – das Probleme direkt findet.

Die Crawling-Rate haben wir jetzt wieder auf “normal” geschaltet, so dass Google jetzt wieder kommen kann. Die Umstellung braucht ungefähr einen Tag, um bei Google zu greifen, was in diesem Fall absolut akzeptabel ist.

The following two tabs change content below.
Avatar-Foto

Markus Hövener

Markus Hövener ist Gründer und SEO Advocate der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Buchautor, Podcaster und Autor vieler Artikel und Studien rund um SEO.

Markus hat vier Kinder, spielt in seiner Freizeit gerne Klavier (vor allem Jazz) und genießt das Leben.

Kommentieren