Teil 5 von “SEO in Action”: Amazon.de unter der Lupe

14. Oktober 2010 | Von in SEO

Kurzes Vorwort: Vor Amazon.de habe ich Hochachtung. Das ist einfach eine verdammte gute Plattform, bei der ich viel Geld ausgebe und bei der ich einfach sehr wenig Potenzial vermute. Mal schauen, ob das stimmt.

Startseite

Die Meta Description der Startseite ist gut, aber eben auch etwas zu lang (168 Zeichen inkl. Leerzeichen):

Entdecken, shoppen und einkaufen bei Amazon.de: Günstige Preise bei Elektronik & Foto, DVD, Musik, Bücher, Games, Spielzeug, Sportartikel, Drogerie & mehr bei Amazon.de

Das macht in diesem Fall aber nichts, denn Google übernimmt die Meta Description ohnehin nicht ins Snippet:

seo-in-action-7

Der Text “Breites Sortiment mit Schwerpunkt Bücher und Musik. Programm für Partner und etliche Features.” entstammt dem DMOZ-/ODP-Verzeichnis. Das ist sicherlich nicht das, was Amazon dort gerne lesen möchte. Ein einfaches Meta-Robots-Tag mit dem Attribut “noodp” würde hier schon Abhilfe schaffen, weil Google dann davon absieht, die DMOZ-Daten zu übernehmen.

Rubrikenseiten

Der Eindruck, dass hier die Liebe zum Detail fehlt, verfestigt sich bei den Rubrikenseiten. Zum einen gibt es dort Meta Descriptions, die einfach zu kurz sind, was dann dazu führt, dass Google die Seiten nur mit einem einzeiligen Snippet anzeigt:

seo-in-action-8

Bei Amazon fällt aber auch auf, dass auf Canonical-Tags verzichtet wird – und das, obwohl Amazon relativ viele Parameter in der URL mitschleift. Da kann dann auch schon mal Duplicate Content entstehen. So hat Google die beiden folgenden URLs im Index:

http://www.amazon.de/hörbücher-hörbuch/b?ie=UTF8&node=300259
http://www.amazon.de/hörbücher-hörbuch/b?ie=UTF8&node=300259&sr=1-2-tc

Amazon hat bei den Rubrikenseiten offensichtlich einen sehr ähnlichen Weg wie Otto.de eingeschlagen: Der Seitentitel einer Rubrik wird aus dem Pfad der Rubrik gebildet.

Beispiel:
Die Rubrik “Bücher › Erotik › Hörbuch › Audio CD” hat den Seitentitel:
“Amazon.de: Audio CD – Hörbuch / Erotik: Bücher”

Besser wäre es auch hier, individuelle Seitentitel zu vergeben, um z. B. dort den Suchbegriff “erotische hörbücher” unterzubringen.

User Generated Content

Wer allerdings, z. B. bei Google, nach “erotische hörbücher” sucht, findet durchaus gute Seiten zu der Suchanfrage im Index, etwa

http://www.amazon.de/Erotische-Hörbücher/lm/2MN0S6FBOX2I7
http://www.amazon.de/Erotische-Bücher-Hörbücher-und-DVDs/lm/40PDG295JKLH

Das kann natürlich auch Teil der Strategie sein – nämlich, dass man seine Rubrikenseiten gar nicht optimieren muss, weil es schon so viele andere passende Seiten gibt, die zudem noch von Nutzern erstellt werden.

Rich Snippets

Gerade eine Plattform wie Amazon.de sollte ihre vorhandenen Bewertungen, die zudem sehr kaufentscheidend sind, für Google über Microformats/RDFa markieren. Wenn allerdings einige URLs von Produkt- oder Rubrikenseiten im Rich Snippets Testing Tool (http://www.google.com/webmasters/tools/richsnippets) ausprobiert werden, erhält man die stets gleiche Antwort: “Insufficient data to generate the preview.”, was bedeutet, dass Google dort keine entsprechenden Informationen finden konnte.

Bei der Frage, ob Unternehmen ihre Daten strukturiert an Google übermitteln sollten, gibt es sehr viele Kontroversen – vielleicht ein Grund, warum Amazon hier auf das Markup verzichtet. Wer mit der Weitergabe dieser Daten kein Problem hat, sollte allerdings schon darüber nachdenken, Bewertungen für Google zu markieren, damit die Suchergebnisse aussagekräftiger werden und damit hoffentlich auch zu mehr Klicks führen.

URL-Normalisierung

Bei Amazon.de findet sich dann auch ein gutes Beispiel für URL-Normalisierung. Wer z. B. innerhalb von Amazon.de auf ein Buch von Nele Heuhaus stößt, kann oben auf der Seite einem Links namens “Nele Neuhaus” folgen und landet dann auf dieser Seite:

http://www.amazon.de/s?_encoding=UTF8&search-alias=books-de&field-author=Nele%20Neuhaus

Google kennt zwar prinzipiell diese Seite, aber unter einer anderen URL:

http://www.amazon.de/Bücher/s?ie=UTF8&rh=n%3A186606%2Cp_27%3ANele%20Neuhaus&field-author=Nele%20Neuhaus&page=1

Um zu sehen, was hier passiert, kann z. B. wieder das Tool www.urivalet.com genutzt werden. Wer die URL http://www.amazon.de/s?_encoding=UTF8&search-alias=books-de&field-author=Nele%20Neuhaus mit dem User-Agent “Firefox” abruft, erhält die folgende Antwort:

SERVER RESPONSE: 200 OK

Wenn man allerdings “Googlebot” als User-Agent auswählt, gibt es eine ganz andere Antwort:

SERVER RESPONSE: 301 MovedPermanently
Location: http://www.amazon.de/B%C3%BCcher/s?ie=UTF8&rh=n%3A186606%2Cp_27%3ANele%20Neuhaus&field-author=Nele%20Neuhaus&page=1

Wer hier schnell den Verdacht auf Cloaking äußert, liegt allerdings falsch: Cloaking bedeutet erstmal nur, dass der Suchmaschine ein anderer Seiteninhalt als dem Browser-Nutzer angezeigt wird. Das ist hier allerdings nicht der Fall (wie man sich im Cache leicht anzeigen lassen kann).
Gerade bei sehr großen Plattformen kommen ähnliche Mechanismen immer wieder zum Einsatz. Um z. B. Problemen mit Duplicate Content vorzubeugen, ist es oftmals nötig, sich für eine URL zu entscheiden, die man dann in den Suchmaschinen haben will. Alle anderen URLs, die über die interne Navigation erreicht werden können, werden dann eben auf die richtige URL umgeleitet.

The following two tabs change content below.
Avatar-Foto

Markus Hövener

Markus Hövener ist Gründer und SEO Advocate der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Buchautor, Podcaster und Autor vieler Artikel und Studien rund um SEO.

Markus hat vier Kinder, spielt in seiner Freizeit gerne Klavier (vor allem Jazz) und genießt das Leben.

5 Kommentare zu “Teil 5 von “SEO in Action”: Amazon.de unter der Lupe”

  1. Avatar-Foto pip

    Die “URL-Normalisierung” macht übrigens auch aus jedem Affiliate-Link per 301 einen perfekten SEO-wirksamen Link für Amazon.

    Spannend auch dass die Seiten die Googlebot ausgeliefert werden, oft nur halb so groß sind, wie die für normale User. Das dürfte sich bemerkbar auf die Crawlrate auswirken.

    Tatsächlich kann man sich mit Amazon sehr lange beschäftigen und noch einige sinnvolle Mechanismen mehr entdecken. 😉

  2. Avatar-Foto Markus

    Hast Recht. Die machen schon spannende Sachen. Hoffe, dass ich da einige Leute zum Forschen angeregt habe 🙂

  3. Avatar-Foto Horst

    Das ist ein spannendes Thema, da muss ich gleich mal nachhaken:
    Wenn ich dem Googlebot eine 301er Weiterleitung schicke, ist das keine Cloaking, wenn die Zielseite die gleichen Inhalte hat?

    Ich habe ein sehr altes Projekt, bei dem User die Darstellung (z.B. Farbe) des Inhalts durch einen URL-Parameter variieren können. Also es wird etwas wie “&design=123” an die URL gehängt um den Inhalt in Blau statt gelb zu sehen. Das bedeutet natürlich riesig viel Duplicate Content. Den Parameter in den Webmaster-Tools auszublenden und Canonical-Tag hat bisher wenig gebracht. Wenn ich den Googlebot einfach auf die Seite ohne das Anhängsel leiten darf, wäre das natürlich perfekt.

    Bisher hatte ich aber Angst, dass Google das als Cloaking einstufen könnte.

  4. Avatar-Foto Markus

    Meiner Meinung (!) nach ist es OK, die URL zu normalisieren. Zumindest wird das 100fach bei sehr großen Sites gemacht, ohne dass diese abgestraft werden.

    Man muss aber auch zugeben, dass diese bei Google deutlich mehr Geld lassen 🙂

    Aber trotzdem: Cloaking heißt für mich, dass man unter URL X zwei unterschiedliche Seiten ausliefert. Und das auch noch um Suchmaschinen zu täuschen. Beides liegt hier ja nicht vor.

  5. Avatar-Foto Markus

    Ganz ehrlich, super Beitrag, dass muss man sich erstmal trauen gegen Amazon zu stänkern…aber voller Respekt. Was Du sagst stimmt, aber mal ganz ehrlich…ein UN wie Amazon, welches sicherlich mehr als 50% des Umsatzes über die Direkteingabe der url macht kann doch wahrscheinlich auf die paar 100 Millionen verzichten, die durch Optimierung zu holen wären…

Kommentieren