Bloofusion
Logo Internetkapitäne Logo Internetkapitäne

Teil 3 von “SEO in Action”: www.conrad.de unter der Lupe

27. September 2010 | Von in SEO | 4 Kommentare

Es ist jetzt quasi halbzeit. Zwei Websites (www.thomann.de und www.bonprix.de) haben wir uns schon angeschaut. Heute ist www.conrad.de dran. Und in den nächsten Tagen kommen noch www.otto.de und www.amazon.de.

Vielleicht an dieser Stelle ein kurzer Einblick: Erstmal bin ich froh, dass mir bei jeder der fünf Websites etwas auffällt. Das habe ich natürlich schon erwartet, aber ich hätte auch erwartet, dass man länger buddeln muss.

Ich kann auch nicht müde wähnen zu sagen, dass es hier nicht ums Bashing geht. Viele der Potenziale sind den Unternehmen wohl auch bekannt. Wir betreiben ja selber auch eigene Websites und ich bin mir sicher, dass man auch dort immer was finden würde, weil die Zeit einfach nie ausreicht, um alles perfekt zu machen. So gesehen geht es bei dieser Serie eher um die Frage: Was könnte man alles richtig machen, wenn Zeit und Geld nicht so fürchterlich begrenzende Faktoren wären?

Und noch etwas: Mir fällt natürlich in der Regel noch viel mehr auf. Vieles davon fällt unter Kleinkram. Manches will ich auch gar nicht erwähnen, weil es vielleicht etwas grenzwertig ist und wir ja Google nicht aufwecken wollen :)

In diesem Sinne folgt jetzt in aller Kürze das, was mir bei www.conrad.de aufgefallen ist.

Meta Description

Bekanntermaßen übernimmt Google gerne die Meta Description einer Seite, um daraus das Snippet zu bilden. Die Meta Description der Startseite ist aber wesentlich zu lang:

“Als einer der führenden Versender von Technik und Elektronik bietet Ihnen Conrad Deutschland eine spannende Welt voller innovativer Ideen. Besuchen Sie unseren Online Shop oder bestellen Sie einen unserer aktuellen Conrad Kataloge.”

Google hat sich dafür entschieden, einen schönen Ausschnitt davon als Snippet zu nehmen:

Bild

Es könnte aber auch sein, dass Google hier einen anderen Ausschnitt nehmen würde und den Text dann mitten im Satz abschneidet. Deswegen empfiehlt es sich gerade bei der Startseite, auf eine perfekte Länge (140-150 Zeichen) zu achten und die Auswahl nicht dem Zufall bzw. Google zu überlassen.

Produkte und Bewertungen

Einer der ersten Tests bei einem Shop besteht immer darin, einen großen Teil einer Produktbeschreibung zu kopieren und dann als Phrase zu suchen. In diesem Fall habe ich mich für ein Raumthermostat entschieden:

“Universell einsetzbarer Elektronik Thermostat mit gleichzeitiger digitaler Anzeige der Ein und Ausschalttemperatur sowie der aktuellen Temperatur” site:conrad.de

Google liefert hier interessanterweise zwei Seiten zurück, die nicht die üblichen Probleme (Session-IDs, …) offenbaren, sondern einen zweiten Blick erfordern:

An der Produkt-ID 615910 kann man erkennen, dass es sich intern wirklich um dasselbe Produkt handeln muss. Aber wieso legt Conrad.de dafür zwei Seiten an?

Die erste Seite ist die Produktseite, die auch innerhalb des Shops gefunden werden kann (löblicherweise mit einem Canonical-Tag). Die zweite Seite zeigt dann die Bewertungen des Produkts an. Das Problem hierbei ist nämlich, dass der Produkttext nicht “unique” ist. Darüber hinaus findet sich dieselbe Produktbeschreibung auch auf zig anderen Plattformen. Mein erster Reflex: Warum macht Conrad daraus nicht eine Seite? Wenn man die textlichen Bewertungen in die Produktdetailseite integriert, würde der “nicht-unique” Teil geringer, so dass Google die Seite hoffentlich positiver bewerten wird. Die Bewertungen können zwar auf der Produktdetailseite abgerufen werden, diese werden aber per AJAX nachgeladen und sind damit für Google unsichtbar. Wenn die Bewertungen (oder auch nur einen Teil davon) auf der Produktdetailseite für Google sichtbar eingebunden würden, hätte man eben eine “uniquere” Seite und könnte zugleich über Microformats oder RDFa für ein Rich Snippet sorgen. Google würde dann im Idealfall die Bewertungen (in diesem Fall die sehr gute Note von 4,6/5) in das Suchergebnis übernehmen und mit Sternchen darstellen.

Die zweite Seite http://bewertungen.conrad.de/6781-de_de/615910/universal-thermostat-ut-200-reviews/reviews.htm hat die Bewertungen nämlich so markiert, dass Google erkennen kann (Test mit dem Rich Snippet Testing Tool) – was hier aber nicht viel hilft, weil Google wohl bevorzugt die Produktdetailseite anzeigen wird:

seo-in-action-4

Übrigens: Wer dennoch von den Rich Snippets profitieren möchte, ohne dass die Bewertungen selber auf einer Seite angezeigt werden, kann auch auf einen so genannten Aggregate Review zurückgreifen kann (mehr dazu in der Google-Hilfe über Rich Snippets).

Viagra & Segeln: Wie man mit viel Trust für den Suchbegriff “viagra” nach oben kommt

24. September 2010 | Von in SEO | Ein Kommentar

Das mit der Überschrift tut mir leid – könnte irreführend sein. Mir ist gerade beim Suchen nach “viagra” (nicht für mich!) das folgende Listing aufgefallen (immerhin Google-Ergebnis #8 von ca. 44 Millionen):

Bild

Im Cache sieht man dann auch, warum Google glaubt, dass die Site etwas mit Viagra zu tun haben könnte:

2010-09-24 11h10 42

Offenbar ist die Site gehackt worden. Mittlerweile steht dort jedenfalls nicht mehr von Viagra.

Warum erwähne ich diese Site? Zwei Gedanken zu der Situation:

  1. Es ist immer wieder interessant zu sehen, dass eine Site, die organisch gut verlinkt ist, aber keine guten Backlinks mit Anchortext “viagra” (o.ä.) hat, trotzdem durch reine On-Page-Optimierung nach oben kommt. Ja, man hat wohl versucht, schnell ein paar Viagra-Links zu setzen, aber die waren eigentlich alle Mist.
  2. “Trust can be misleading”: Google vertraut dieser Website offensichtlich. Die Verlinkung ist gut, viele organische und alte Links und auch die Domain gibt es schon seit ein paar Tagen (1998). Das ist natürlich eine tolle Domain, nur dass sie in den letzten zwölf Jahren wohl niemals in Verbindung mit Viagra stand.

Kurz: Ich bin immer wieder überrascht, wie “leicht” (wenn man es denn schafft, so eine Website zu kapern) man Google dann doch noch aufs Glatteis führen kann.

Noch was: Hier fällt natürlich auch auf, wie asynchron Google eigentlich arbeitet. Im Cache wird z.B. noch der “alte” Viagra-Seitentitel angezeigt, während im Suchergebnis der “neue” Seitentitel ohne Viagra erscheint.

Disclaimer: Das war natürlich keine Aufforderung, Sites zu hacken. Aber vielleicht eine Aufforderung, die Schutzmaßnahmen zu verbessern…

Teil 2 unserer Serie: www.bonprix.de unter der Lupe

22. September 2010 | Von in SEO | 11 Kommentare

Mann, seit ich weiß, dass Bonprix hier mitliest, bin ich ja schon etwas nervös. Aber wie gesagt: Es geht hier nicht um Meckern, sondern darum, typische Probleme/Überlegungen aufzuzeigen – und da haben wir hoffentlich einige gute Aspekte gefunden.

Der Einstieg

Bei www.bonprix.de fällt zunächst auf, dass der Browser beim Aufruf der Startseite umgeleitet wird. Da das mit verschiedenen Methoden geschehen kann (auch solchen, die Google nicht erkennen kann), prüfe ich zunächst die Weiterleitung: http://www.bonprix.de/ leitet per 301-Umleitung auf die Seite http://www.bonprix.de/bp/home.htm um:

2010-09-22 15h22 14

Google hat so kein Problem damit, also: alles bestens.

Fly-Out-Navigation

Dank des deaktivierten JavaScripts sieht man im Browser aber schnell etwas, was sonst nicht zu sehen wäre: Wie heutzutage üblich ist die so genannte Fly-Out-Navigation per CSS und JavaScript implementiert, was eben erst einmal nur dann zu sehen ist, wenn JavaScript deaktiviert ist. Alle Menüs sind ausgeklappt – und das ist auch genau das, was Google sieht:

seo-in-action-2

Jede Seite der Website, die die Fly-Out-Navigation beinhaltet, verlinkt damit auf ca. 100 Unterseiten. Das kann problematisch sein, weil dann allen verlinkten Unterseiten dasselbe Linkgewicht zukommen würde. Eine Oberrubrik wie “Damen” (sehr wichtig) und eine Unterrubrik wie “Leseparadies” hätten also dasselbe Linkgewicht.

Ob und in welcher Form das schädlich ist, ist umstritten. Da Google per Page Segmentation Seitenbestandteile in konstant (Footer, Top-Navigation, …) und variabel (Content-Bereich, Breadcrumbs, …) unterscheiden kann, ist es wahrscheinlich, dass konstante Elemente weniger Linkgewicht weitergeben können als Links im variablen Bereich. Ob Google allerdings auf diesem Wege eine solche Fly-Out-Navigation erkennen kann und dann die Links entsprechend gewichtet, ist wie gesagt umstritten und auch nur mit hohem Aufwand zu überprüfen.

Wer sich hier auf keine Experimente einlassen möchte, sollte also auf eine derart implementierte Navigation verzichten und die Funktionalität eher auf anderem Wege (z.B. per JavaScript) erzeugen.

Parameter, Session-IDs

Wer sich die URLs der Oberrubriken anschaut, entdeckt hier schon schnell ein potenzielles Problem:

Über den Parameter “sourcePageClick” will Bonprix offensichtlich tracken, wie jemand auf eine bestimmte Seite kommt. Da aber dieser Parameter verschiedene Werte annehmen kann, ist das natürlich eine Quelle für doppelten Content. Es empfiehlt sich dann, diesen Parameter über die Google Webmaster Tools als zu ignorierenden Parameter zu setzen (“Parameterbehandlung”) und parallel auf jeden Fall ein Canonical-Tag zu nutzen, um einer Seite wie http://www.bonprix.de/bp/Damen-1-shop.htm?sourcePageClick=tab1 die “richtige” URL (http://www.bonprix.de/bp/Damen-1-shop.htm) mitzugeben. Ein Canonical-Tag ist aber nicht zu finden, was in diesem Fall ein schlechtes Zeichen ist.

Wer jetzt also die URL http://www.bonprix.de/bp/Damen-1-shop.htm?sourcePageClick=tab1 daraufhin überprüft, ob Google diese indexiert hat, kann dies über die Suchanfragen “info:URL” bei Google machen. In der Regel sollte man dann direkt ein Suchergebnis mit der angefragten URL bekommen – nicht so bei bonprix.de. Google kennt offensichtlich eine Menge an Seiten, die zu der angefragten URL passen, z. B.
http://www.bonprix.de/bp/Schuhe-5-shop.htm?sourcePageClick=tab5&id=1687817532747634965-0-4c7a4529
http://www.bonprix.de/bp/Schuhe-5-shop.htm?sourcePageClick=tab5&id=1101501380635024948-0-4c59fe6c

Dabei sieht man, dass Google diese Ergebnisse ohne Snippet anzeigt:

seo-in-action-3

Das ist ein klares Indiz dafür, dass diese Seiten für Suchmaschinen gesperrt sind – was auch stimmt: In der robots.txt findet sich der Eintrag “Disallow: *id=*”, der dafür sorgt, dass URLs mit dem Parameter “id” nicht gecrawlt werden dürfen. Aber warum sind diese dann trotzdem im Google-Index?

Das liegt daran, dass Google zwischen Crawling und Indexing unterscheidet. Die robots.txt verhindert zunächst nur das Crawling, also dass Google bzw. der Googlebot die entsprechenden Seiten vom Server herunterladen. Nicht verhindert wird jedoch, dass Google dafür trotzdem Index-Einträge anlegt.

Also: Man hat hier die für Online-Shops typische Probleme mit Session-IDs (zumindest darf vermutet werden, dass sich hinter dem Parameter “id” eine solche verbirgt). Das Problem sollte aber nicht unbedingt dadurch gelöst werden, dass Seiten mit dem Parameter “id” für Suchmaschinen gesperrt werden.

Viele Shops lösen das Problem z. B. dadurch, dass einem Besucher, der sich über den User-Agent als Googlebot erkenntlich gibt, eine fixe Session-ID (etwa “id=bot” mitgegeben wird). Alternativlösungen können aber auch einfach darin bestehen, dass der Parameter “id” als zu ignorierender Parameter definiert wird. Auch ein Canonical-Tag kann hier helfen.

Trotzdem: Die optimale Lösung besteht natürlich nach wie vor darin, überhaupt keine Session-IDs in URLs zu führen. Das aber erlauben nicht alle Shop-Systeme.

Varianten

Bei Bonprix besteht auch noch ein weiteres Problem, das primär Shops und da vor allem solche aus dem Modebereich haben: So gibt es ein Produkt oft in mehreren Varianten (Farbe, Größe, …). Bei Bonprix gibt es z. B. eine Jacke in unterschiedlichen Farben:

Der Parameter “bu” ist fix und enthält wohl eine Datenbank-ID des Produkts, während “oItem” die Variante identifiziert. Problematisch kann das werden, weil hier eben wieder Duplicate Content erzeugt wird. Die Seiten sind bis auf die Farbe identisch – und diese findet sich manchmal nur im veränderten Bild wieder.

Da das Produkt auch unter der URL http://www.bonprix.de/bp/Jacke-2507497-bundle.htm?bu=2507497 erreicht werden kann, könnte Bonprix hier zwei Lösungswege wählen:

  1. Alle Seiten erhalten dasselbe Canonical Tag (und zwar http://www.bonprix.de/bp/Jacke-2507497-bundle.htm?bu=2507497)
  2. Der Parameter “oItem” wird als zu ignorierender Parameter in den Google Webmaster Tools definiert

Soft-404s

Wer sich die Mühe macht und einmal nach einer Produktbeschreibung bei Google sucht, findet leider die dazugehörigen Produktseiten manchmal nicht im Index. Die Suchanfrage

“Tunnelzug in der Kapuze und Taille zur individuellen Weitenregulierung” site:bonprix.de

zeigt sehr viele Seiten auf – nur eben manchmal nicht die gesuchte Produktseite.

Dafür findet man ein neues Problem: Es gibt im Google-Index URLs wie www.bonprix.de/bp/Jacke-4691932-style.htm, die auf eine Fehlerseite verweisen (“Die Seite konnte leider nicht gefunden werden.”). Diese Fehlerseite liefert aber leider keinen 404-Code, sondern einen 200-Code, so dass Google annimmt, dass diese URLs richtig sind. So wird es leider niemals dazu kommen, dass Google nicht mehr gültige URLs aus dem Index entfernt.

2010-09-22 15h33 15

Fazit

Es scheint hier sehr viele – für Online-Shops nicht untypische – Probleme zu geben. Die meisten davon dürften auf das Shop-System zurückzuführen sein. Die genannten Probleme (Session-IDs, Varianten, …) sind allerdings allesamt bekannt und werden von vielen Shop-Systemen auch mittlerweile recht gut gelöst.

Google Maps: Warum verlangt Google eigentlich kein Geld für Einträge?

22. September 2010 | Von in Local Search | Ein Kommentar

Ich bin gerade über den Beitrag “Sex Therapists, Good Luck Getting Into Google Maps” gestolpert, der mir mal wieder ein Problem vor Augen geführt hat: Google Maps wird immer wichtiger, aber wenn es Probleme mit dem Eintrag gibt, steht man erstmal ohne echte Hilfe da.

Für Google mag das alles Peanuts sein, aber analog zu den früheren Yahoo-Express-Einträgen wäre wohl mancher schon bereit, gutes Geld an Google zu zahlen, wenn man dadurch flux & gesichert reinkommt und dann auch noch einen Ansprechpartner hätte, der einem bei Problemen hilft. Google Tags wird wohl bald auch nach Deutschland/Europa kommen, aber Tags setzt eben auch einen funktionierenden Eintrag voraus.

Denn: Probleme bei Google-Maps-Anmeldungen/-Korrekturen gibt’s oft genug. Ausgereift ist das alles leider noch nicht…

Google Instant: Viel Lärm um nichts?

21. September 2010 | Von in SEM, SEO | 5 Kommentare

Seit nun knapp zwei Wochen, seit Google mit der Vorstellung von Instant für viel Aufsehen gesorgt hat, wird eifrig über die Auswirkungen des neuen Features spekuliert. In Deutschland blieb uns auch nichts anderes übrig, denn die Masse der Nutzer sieht derzeit noch das alte Google. Bei Google.com dagegen ist Instant standardmäßig aktiviert, so dass man jenseits des Atlantiks bereits Erfahrungen hat sammeln können. Vor allem Nutzer von Google AdWords bekamen schnell Daten und konnten Schlüsse daraus ziehen.

Sehr schnell gab es erste Ergebnisse und größtenteils wurde von extremen Veränderungen berichtet. Schon am 14.9. hat David Iwanow einen ziemlich guten Artikel im Search Marketing Journal veröffentlicht. In Google AdWords Instant Trouble schildert er detailliert die Auswirkungen von Instant auf AdWords – nur um dann nebenbei zu erwähnen, dass seine Datengrundlage ein Vergleich vom 7. mit dem 8. September ist. Und da liegt das Problem.

Am 8.9. wurde die Einführung von Google Instant bekannt gegeben. So ziemlich jeder Nutzer dürfte danach erst mal gestutzt und sich gefragt haben, was denn da mit den Suchergebnissen passiert. Repräsentativ für das neue Suchverhalten ist der 8. September deshalb sicher nicht. Zumal Instant erst morgens in Kalifornien vorgestellt wurde – an der US Ostküste, wo Davids Agentur sitzt, war es da schon Mittag. Die Daten vom 8.9. spiegeln also nicht mal einen vollen Tag Instant wider. Aber auch die folgenden Tage wurden noch viele Nutzer zum ersten Mal mit Instant konfrontiert. Die Ergebnisse der ersten Tage sind also auf jeden Fall mit Vorsicht zu genießen.

Am Freitag wurde bei Search Engine Roundtable eine Umfrage zu den Auswirkungen von Google Instant auf AdWords gestartet. Von 153 Teilnehmern gaben mehr als die Hälfte an, keine Veränderungen durch Instant ausgemacht zu haben. Etwas weniger als 20 % will mehr Impressionen ausgemacht haben, knapp 7 % sagen das Gegenteil. Knapp 3 % geben an, mehr Klicks zu bekommen, knapp 14 % berichten das Gegenteil. Hier der aktuelle Stand der Umfrage:

Seit Ende letzter Woche melden sich auch verstärkt einzelne AdWords-Spezialisten zu Wort und geben ihre Erfahrungen weiter. Der Grundtenor dabei: Keine signifikanten Änderungen. Ein paar berichten zwar von leichten Verschiebungen, allerdings scheinen mir dies eher die kleineren Advertiser zu sein. Gestern hat mit ClickEquations eine etwas größere Agentur die Ergebnisse einer Kurzstudie für zwei Dutzend Konten bei Twitter veröffentlicht . Ergebnis: Kein wahrnehmbarer Einfluss auf Klicks, Impressionen, Klickrate oder CPC.

Auch hierbei gilt natürlich, dass es immer noch recht früh ist, um schon großartige Schlussfolgerungen zu ziehen. Ich muss aber sagen, dass die Leute, die ich persönlich kenne und deren Expertise ich vertraue, übereinstimmend sagen, dass es keine signifikanten Änderungen gibt. Ich gehe also davon aus, dass das stimmt: Google Instant ändert nicht viel bei Google AdWords.

Falsche Vorhersagen?

Im Vorfeld wurden mehrere Aspekte genannt, bei denen sich Instant auf AdWords auswirken sollte. Ändert sich aber nicht viel bei AdWords, dann müssen diese Vermutungen auch irgendwie falsch gewesen sein. Ich sehe da insbesondere drei Aspekte: Verdrängung der organischen Suchergebnisse, Zählweise von Impressionen und verändertes Suchverhalten.

Die Verdrängung der organischen Suchergebnisse ist eher ein Detail: Durch die Vergrößerung des Suchfeldes beim Tippen rücken die Ergebnisse nach unten. Das benachteiligt die organischen Suchergebnisse gegenüber den AdWords-Anzeigen. Anscheinend ist der Effekt aber nicht besonders groß.

Mehr Impressionen

Im Hinblick auf AdWords hat vor allem die Zählweise von Impressionen für Wirbel gesorgt: Schon wenn drei Sekunden keine Eingabe erfolgt, wird eine Impression gezählt. Die Befürchtung: Wenn jemand langsam genug tippt, dann werden plötzlich zusätzliche Anzeigenimpressionen gezählt, was nicht nur die Statistiken verzerrt, sondern sich auch negativ auf den Qualitätsfaktor auswirkt, was wiederum höhere Klickpreise bewirken würde.

Hier muss man zunächst mal anmerken, dass drei Sekunden Pause beim Tippen schon eine ziemlich lange Zeit bedeutet. Wenn in dieser Zeit die Suchergebnisse betrachtet werden, um dann anschließend die Suchanfrage zu verändern, so unterscheidet sich dies eigentlich nicht von einer Suche ohne Instant: So oder so finden zwei unterschiedliche Suchvorgänge statt. Und dass sich durch die zusätzlichen Impressionen eine Änderung der Qualitätsfaktoren und infolge dessen bei den Klickpreisen ergäbe beruht sowieso auf einem falschen Verständnis des Qualitätsfaktors.

Verändertes Suchverhalten

Der wichtigste Aspekt von Google Instant dürfte aber die Veränderung des Suchverhaltens sein. Die Annahme: Nutzer orientieren ihre Suchanfragen an den Vorschlägen, die Google während des Tippens anbietet. Dieser Aspekt scheint mir der unberechenbarste zu sein und er ist für SEO und SEM gleichermaßen wichtig. Gestern hat Nathan Safran dazu einen Artikel im Conductor Blog veröffentlicht. Er hat die Länge von Suchanfragen untersucht, die 880.000 Visits vorausgingen – die eine Hälfte aus der Woche vor Instant, die andere danach. Dabei blieb die Verteilung praktisch identisch.

Vor etwas über einem Jahr haben wir mal eine Mini-Studie zu Google Suggest gemacht und sind zu dem Ergebnis gekommen, dass nur wenige Nutzer sich davon großartig beeinflussen lassen. Unser Fazit war damals, dass Suggest zwar Fehlschreibungen gut korrigiert, ansonsten aber nur wenig Einfluss auf das Suchverhalten zu nehmen schien. Nun funktioniert Google Instant etwas anders als Google Suggest und drängt sich mit seinen Suchvorschlägen auch mehr in den Vordergrund. Insgesamt liegt aber der Schluss nahe, dass sich Nutzer gar nicht so stark von solchen Vorschlägen beeinflussen lassen. Für die gegenteilige Annahme, die wie selbstverständlich vielen Artikeln zu Instant zugrunde liegt, scheint es jedenfalls überhaupt keine Basis zu geben.

Fazit: Alles halb so wild

Dass mit der Einführung von Instant Veränderungen kommen, scheint mir logisch. Ich denke, dass durch die neue Zählweise hier und da zusätzliche Impressionen zustande werden – in der Summe vermutlich vernachlässigbar, von der Bedeutung her sowieso. Das Suchverhalten wird durch Instant sicher auch beeinflusst, aber vermutlich deutlich weniger als allgemein angenommen. Alles deutet darauf hin, dass es eher minimale Änderungen als große Umwälzungen sind, die da auf uns zukommen.

Galerien in XML-Video-Sitemaps eintragen: Mehr Strukturdaten für Googles Videosuche

21. September 2010 | Von in SEO | Keine Kommentare

Google weist in dem Blog-Post “Video-XML-Sitemaps: Ist euer Video Teil einer Galerie?” darauf hin, dass man in einer XML-Video-Sitemap für die Videos jeweils auch Galerieseiten definieren kann. Ich bin mir jetzt gar nicht so sicher, ob das wirklich neu ist, aber zumindest bin ich vorher noch nie drüber gestolpert.

Zu dem Tag <video:gallery_loc> schreibt die Google-Hilfe:

Ein Link zu der Galerie (Videosammlung), die dieses Video enthält. Für jedes Video kann nur ein <video:gallery_loc>-Tag angegeben werden. Der Wert des optionalen Attributs title gibt den Titel der Galerie an.

Der Vorteil dieses Tags liegt dann wohl darin, dass Google mehr Strukturdaten erhält. Wenn also jemand zwanzig Videos zu Lady Gaga hat und auch über eine Galerieseite verfügt, die alle diese Videos auflistet, ist das natürlich eine wichtige Information und auch ein relevanter Ranking-Faktor. Google würde dann nicht nur auf die einzelnen Videos verlinken, sondern eben auch auf die Galerieseite.

Ich habe versucht, hierfür einen guten Screenshot zu finden, aber keinen gefunden. Hier sei dann auf das Bild in dem Blog-Post verwiesen.

Die erste Website unter der SEO-Lupe: www.thomann.de

19. September 2010 | Von in SEO | 7 Kommentare

Wie schon angekündigt: Für die nächste Ausgabe des suchradars (26. Oktober) schreibe ich einen Artikel aus der Reihe “SEO in Action”, in dem ich mir einige Top-Online-Shops anschaue.

Grundsätzlich sollte man davon ausgehen, dass diese Websites in Bezug auf SEO alles richtig machen. Aber aus der Praxis weiß ich, dass es eben gerade bei so großen Websites immer Potenziale und Probleme gibt. Und deswegen habe ich für den nächsten Artikel aus der Serie “SEO in Action” fünf der zehn größten deutschen Shop-Websites herausgesucht, um dort typische Fehler aufzuzeigen – aber auch, um zu demonstrieren, wie manche dieser Fehler gefunden werden können.

Es geht dabei nicht darum, mit dem Finger auf andere zu zeigen. Diese Plattformen haben natürlich schon sehr, sehr viel richtig gemacht, da sie sonst wohl kaum solche Umsätze realisieren würden.

Vielmehr geht es darum, auf die vielen kleinen Feinheiten hinzuweisen, die in der Praxis oft nicht umgesetzt werden. Aber: Wenn ein Unternehmen 100 Millionen Euro Umsatz macht und man mit einer kleinen Verbesserung 1 % mehr Traffic (= mehr Umsatz) generieren kann, ist das relativ gesehen nicht viel – aber absolut gesehen eben doch. Und deswegen lohnt sich der Blick auf die Details.

Die Vorbereitungen

Gelegentlich gibt es Websites, die ein menschlicher Besucher mit einem Browser anders als Suchmaschinen sieht. So gibt es manchmal sehr skurril implementierte JavaScript-Redirects, die von Suchmaschinen nicht erkannt werden.

Um derartige Effekte zu vermeiden, kann man verschiedene Software-Lösungen einsetzen – oder nutzt einfach die Möglichkeiten, die einem Browser wie der Firefox anbieten. Zunächst empfiehlt es sich, JavaScript auszuschalten (Extras > Einstellungen > Inhalte > JavaScript aktivieren).
Außerdem kann und sollte man sich zusätzlich als Googlebot und nicht als Firefox zu erkennen geben – für den Fall, dass der Web-Server z. B. den User-Agent überprüft und für Google andere Regeln gelten. Das geht z. B. mit dem Add-on “User Agent Switcher”, in dem dann ganz einfach der Googlebot ausgewählt werden kann.

Unter der Lupe: www.thomann.de

Vorab: Ich bin Musiker & hätte direkt bei Thomann.de mein halbes Jahressalär ausgeben können. Schöne Site, tolle Produkte, gute Marke. Aber dennoch: Ich bin ja hier zum Arbeiten. Was ist mir also bei Thomann.de aufgefallen?

Startseite

Die Startseite einer Website hat prinzipiell innerhalb einer Website das höchste Gewicht und sollte deswegen auch auf allgemeine Suchbegriffe abzielen – im Falle von www.thomann.de wären das z. B. Suchbegriffe wie “musikinstrumente” oder “studiotechnik”. Aber die Startseite von Thomann ist extrem textarm und dient eigentlich nur als Verteiler auf die unterschiedlichen Sprach-/Länderversionen:

seo-in-action-1

Übrigens: In seltenen Fällen passiert es leider auch, dass Suchmaschinen Seiten anders angeboten werden als normalen Besuchern – z. B. weil über die IP des abfragenden Crawlers auf dessen Herkunft (z. B. USA) geschlossen wird. Ein deutscher Besucher würde also eine deutsche Seite sehen, während Google die US-Seite sehen würde. Um zu überprüfen, ob dieses Problem vorliegt, kann man bei Google einfach in den Cache reinschauen (“cache:www.thomann.de”). In diesem Fall gibt es allerdings Entwarnung: Auch Google hat die Seite so indexiert, wie man sie als deutscher Besucher im Browser sieht.

Bild

Es ist zwar ganz sinnvoll, von der Startseite auf die unterschiedlichen Sprach-/Länderversionen zu verlinken, aber das sollte Thomann in anderer Form machen. So wäre es besser, die Inhalte der deutschen Startseite (http://www.thomann.de/de/) auf der “richtigen” Startseite (http://www.thomann.de/) anzuzeigen. Von dieser Seite aus könnte natürlich trotzdem auf die anderen Versionen verlinkt werden (was jede Seite übrigens auch wirklich macht). Das hätte zur Folge, dass http://www.thomann.de/ – eine Seite mit deutlich mehr Gewicht als die deutsche Unterseite http://www.thomann.de/de/ – deutlich bessere Rankings zeigen würde.

Die Lösung, die unterschiedlichen Versionen in entsprechenden Ordnern (“de”, “es”, …) abzulegen, ist natürlich prinzipiell richtig. Besser wäre es allerdings, wenn hier eine generische Domain (.com, …) genutzt würde. Dann könnte den unterschiedlichen Versionen über die Google Webmaster Tools auch Zielländer zugeordnet werden (z. B. /se/ = Schweden). Mit einer länderspezifischen Domain (.de) geht das leider nicht.

Allerdings müssten noch einige andere Hausaufgaben erledigt werden, denn die deutsche Startseite http://www.thomann.de/de/ enthält den Seitentitel “Herzlich Willkommen” und eine Überschrift namens “Willkommen zu Hause!” – von allgemeinen Suchbegriffen leider keine Spur. Diese finden sich zwar im einleitenden Text, aber eben leider nicht in wichtigen Seitenelementen wie dem Seitentitel.

Startseite & Rubrikenseiten

Auf der Startseite sieht man auch einen üblichen Fehler: Wörter werden verkürzt. So steht dort: “…Studio-, Licht- und Beschallungstechnik …”:

Bild

Für einen Menschen ist absolut klar, dass mit “Licht-” eigentlich “Lichttechnik” gemeint ist. Eine Suchmaschine vermag das aber derzeit noch nicht zu erkennen. Dieses Problem findet sich auch in verschiedenen Rubriken (z. B. “Licht- und Bühnenequipment”).

Wer sich die Rubriken anschaut, merkt auch schnell, dass hier selten auf die richtigen Suchbegriffe abgezielt wird – ein ebenfalls sehr häufiger Fehler. So gibt es Rubriken wie “Hot Deals” (wer sucht nach “hot deals”?), “Zubehör” (nicht schlecht, aber das sollte man immer in Verbindung mit einer Kategorie verwenden) oder “Fachliteratur” (viel zu allgemein).

Fazit

Die Website Thomann.de verschenkt leider einiges an Potenzial. Das liegt zum einen an der etwas ungewöhnlichen Startseitenlösung, aber auch an der mangelnden Ausrichtung der Rubrikenseiten.

Next…

www.bonprix.de (stay tuned)

Google schlägt wieder was vor: Mehrsprachige Templates mit Canonical- und Alternate-Tag

16. September 2010 | Von in SEO | 5 Kommentare

Google hat mit dem Beitrag “Unifying content under multilingual templates” mal wieder einen neuen Vorschlag gemacht.

Insgesamt geht es um das folgende Szenario: Wenn es einen Text gibt (z.B. einen englischsprachigen Text unter der URL http://www.example.com/text/), kann es auch passieren, dass es diesen Text auf Plattformen anderer Sprachen gibt (also z.B. http://www.example.mx/text/) oder auch http://www.example.ru/text/). Der Text ist immer derselbe, nur das Template und vor allem die Navigation ändern sich.

Wenn man nun auf allen Versionen des Textes dasselbe Canonical-Tag setzt, hilft das Google. Wenn also die URLs http://www.example.ru/text/ und http://www.example.mx/text/ über das Canonical-Tag auf die URL http://www.example.com/text/ verweisen, hilft das Google, diese als Duplicate zu erkennen und deren Linkgewicht zusammenzuziehen.

Nur leider würde der russische Besucher dann die .com-Site und nicht die .ru-Site sehen. Und genau das kann man jetzt über die neue Methode definieren:

<link rel=”alternate” hreflang=”a-different-language” href=”http://url-of-the-different-language-page” />

In die Seite http://www.example.com/text/ würde man also zweierlei einbauen:

(1) Das Canonical-Tag:
<link rel=”canonical” href=”http://www.example.com/text/” />

(2) Das Alternate-Tag:
<link rel=”alternate” hreflang=”ru” href=”http://www.example.ru/text/” />

Meine Meinung dazu:

(1) Ich glaube, dass das kaum jemand braucht. Das mag für einige ganz wenige international tätige Shops, Portale oder Verlage interessant sein, aber unter unseren Kunden fällt mir erstmal keiner ein, der das (so) brauchen könnte. (Die Einschränkung: Ein Kunde könnte das in der Tat brauchen, aber dann müsste das Tag anders funktionieren – siehe (2)).

(2) Wenn man hier nicht nur Sprachen, sondern auch Länder definieren könnte, wäre das noch besser. Englisch oder Spanisch wird in vielen Ländern gesprochen, so dass es Sinn machen würde, Besucher aus den verschiedenen englischsprachigen Ländern auf jeweilige Länder-Domains zu schicken.

Detaillierte Meldungen vom Rich Snippets Testing Tool: Bewertungen nicht zu weit unten

16. September 2010 | Von in SEO | 7 Kommentare

Wir testen ja immer fleißig mit Rich Snippets und dem Testing Tool von Google rum. Dabei ist mir eben eine Meldung aufgefallen, die sich so noch nicht gesehen habe:

Bild

Der Google-Hilfe zufolge kann die neue Fehlermeldung dann erscheinen, …

… if the marked-up content is

  1. very low down on the page,
  2. is found in boilerplate elements such as headers, footers, and navigation, or
  3. is included in a hidden HTML element.

Hier greift wohl der erste Punkt. Interessant ist dabei, dass es auf der Site sehr viele Seiten mit Bewertungen gibt, bei denen die Bewertungen immer auf ungefähr derselben Höhe erscheinen (abhängig von der Länge der Produktbeschreibung und -daten). Einige davon werden angenommen, andere wiederum nicht.

Offensichtlich ist Google also etwas kritisch, was die Positionierung der Bewertungen angeht. In der Regel wird man das allerdings nicht so einfach lösen können – zumindest nicht in diesem Fall, weil wir schlecht die Bewertungen oberhalb der Produktdetails ausgeben können.

Einen Ausweg gibt es aber: Aggregate Reviews. Oben auf der Produktseite findet man ja oft eine Zusammenfassung, so wie hier:

Bild

Wenn man diese Informationen entsprechend als Aggregate Review markiert, sollte Google damit kein Problem mehr haben. Weit genug oben steht’s dann auf alle Fälle. Gleich mal ausprobieren…

Pay with a Tweet: Quit pro quo im digital Zeitalter

16. September 2010 | Von in Sonstiges | Keine Kommentare

Irgendein Google Alert hat mich gestern auf die Seite http://www.wbs-law.de/news/it-telekommunikationsrecht/1888/kostenloser-pdf-ratgeber-rechtliche-aspekte-bei-der-suchmaschinen-optimierung-seo-sea-smo-sem-und-recht-download-hier/ gebracht & mich nochmal auf den Dienst “Pay With a Tweet” (www.paywithatweet.com) aufmerksam gemacht – was ich zum Anlass nehme, das mal kurz vorzustellen.

Das PDF kann man nicht direkt runterladen, sondern muss erst etwas zwitschern:

Bild

Wer auf den Button klickt, kommt dann auf eine Seite wie diese:

Bild

Also: Das Ganze funktioniert nicht nur mit Twitter, sondern auch mit Facebook. Ich logge mich ein und sehe dann, was ich eigentlich twittern werde. Den Text kann ich ändern, aber den Link nicht.

Bild

Schnell noch auf “Post Tweet” klicken und schon hab ich’s gezwitschert:

Bild

Auf der Seite http://www.paywithatweet.com/cases.html findet man noch ein paar Anwendungen, z.B. ein Hotel, das ein Gratisbier gegen einen Tweet tauscht. Ganz witzig.

In der Praxis sehe ich zwei Probleme:

  1. Es soll ja immer noch Menschen geben, die weder bei Twitter noch bei Facebook aktiv sind. Die blockt man natürlich weg. Man muss sich seiner Zielgruppe also schon ziemlich sicher sein, wenn man das macht. Ich wär mir nicht mal sicher, ob das beim suchradar funktionieren würde, weil wir auch da noch viele “Old-School-Leser” haben.
  2. Ich sehe hier auch das Henne-Ei-Problem: Ich muss erst zwitschern & bekomme dann das zu sehen, worüber ich eigentlich zwitschern soll. In diesem Fall fand ich postum das PDF gar nicht so dolle, aber der Tweet ist eben raus.

Also keine Sorge: Fürs suchradar werde ichs nicht einbauen. Das Beispiel mit dem Gratisbier finde ich aber super. Und einfach zu implementieren ist das alles auf alle Fälle…