Bloofusion
Logo Internetkapitäne Logo Internetkapitäne

Neue Meldung von den Google Webmaster Tools: DNS-Fehler

31. Juli 2012 | Von in SEO | 2 Kommentare

Die Meldungen der Google Webmaster Tools scheinen immer detaillierter zu werden. Diese hier, die heute Nacht für einen unserer Kunden kam, habe ich jedenfalls vorher noch nie gesehen:

Der Googlebot hat keinen Zugriff auf Ihre Website

In den letzten 24 Stunden hat der Googlebot 125 Fehler beim Abrufen von DNS-Informationen für Ihre Website festgestellt. Die Gesamtfehlerquote der DNS-Anfragen für Ihre Website liegt bei 1.8 %. Weitere Details zu diesen Fehlern finden Sie in den Webmaster-Tools.

Empfohlene Aktion

Wenn die Fehlerquote der Website 100 % beträgt:

  • Überprüfen Sie mit einem WHOIS-Tool, ob http://www.xxxxxxxxxxxxxxxx.de/ einen ordnungsgemäßen WHOIS-Datensatz aufweist und ob die Nameserver für die Website konfiguriert sind. Sollte dies nicht der Fall sein, bitten Sie Ihre Domain-Registrierstelle, Ihre WHOIS-Datensätze zu aktualisieren.
  • Vergewissern Sie sich mithilfe eines DNS-Lookup-Tools, dass der Name des Nameservers zu einer IP-Adresse aufgelöst werden kann. Ist dies nicht der Fall, fügen Sie entweder eine IP-Adresse zu Ihrem WHOIS-Datensatz hinzu oder aktualisieren Sie die DNS-Datensätze für den Nameserver.
  • Überprüfen Sie mit einem DNS-Lookup-Tool, ob http://www.xxxxxxxxxxxxxxxx.de/ zu einer IP-Adresse aufgelöst werden kann. Ist dies nicht der Fall, aktualisieren Sie auf Ihrem Nameserver den DNS-Datensatz für http://www.xxxxxxxxxxxxxxxx.de/.

Wenn die Fehlerquote der Website weniger als 100 % beträgt:

  • Am wahrscheinlichsten ist, dass Ihr Nameserver überlastet ist. Besprechen Sie mit Ihrem Hostanbieter die Konfiguration Ihres DNS-Servers und die Möglichkeit, Ihrem DNS-Dienst mehr Ressourcen zuzuweisen.

Nachdem das Problem Ihrer Meinung nach behoben ist, vergewissern Sie sich mithilfe von Abruf wie durch Google, dass der Googlebot ordnungsgemäß auf Ihre Website zugreifen kann.
Weitere Informationen finden Sie in der Hilfe für Webmaster.

Wir verlosen ein Ticket für die OMCap SES Berlin 2012

30. Juli 2012 | Von in Sonstiges | 86 Kommentare

BildWie viele vielleicht schon wissen: Am 11. Oktober findet in Berlin die OMCap SES Berlin 2012 statt. Wer Interesse an einem vollen Konferenzprogramm nebst Party hat, sollte sich noch schnellstmöglich ein Ticket sichern.

Als Redner wurden u. a. Joost de Valk, Marcus Tober, Marcus Tandler, Sebastian Socha, André Morys, Thomas Bindl und Johannes Beus verpflichtet. Die Reise in die Bundeshauptstadt wird sich also definitiv lohnen.

Mit etwas Glück kann man hier bei den Internetkapitänen an ein Ticket kommen. Wir verlosen nämlich ein Ticket unter allen, die hier einen Kommentar hinterlassen. Schreibt bitte, auf welchen Vortrag Ihr Euch am meisten freut.

Den Gewinner ziehen wir dann am 1. September. Ich wünsche allen viel Erfolg! Vielleicht sehen wir uns in Berlin…

Google baut Remarketing aus

30. Juli 2012 | Von in SEM | 2 Kommentare

Die Ankündigung kam am Freitagabend: Remarketing mit Google wird radikal vereinfacht und gleichzeitig noch mächtiger. Einfacher, weil ab sofort nur noch ein einzelnes Remarketing-Tag benötigt wird. Mächtiger, weil Zielgruppen demnächst über Google Analytics erstellt werden können – und weil sich Remarketing demnächst wohl auch auf die Google-Suche erstrecken soll.

Nur noch ein Remarketing-Tag

Bisher war es so, dass Zielgruppen auf Basis von sogenannten Remarketing-Tags, also kleinen Codeschnipseln, erstellt wurden. Beim Aufruf einer entsprechenden Seite wurde ein Benutzer dann in eine Zielgruppe einsortiert. Zielgruppen konnten auch logisch verknüpft werden, aber die Basis blieb immer das Remarketing-Tag.

Damit lässt sich zwar in der Theorie ziemlich viel anstellen, in der Praxis wurde das aber schnell umständlich. Wenn ein Shop beispielsweise eine Zielgruppe bewerben wollte, die sich einen besonderen Bereich auf der Website angesehen hat, dann musste dafür extra ein Tag erstellt, abgerufen und eingebaut werden. In der Praxis hieß das nicht nur viel Kleinarbeit, sondern üblicherweise auch noch Abstimmung zwischen AdWords- und Website-Betreuer.

Mit dem neuen Remarketing-Tag entfällt diese Kleinarbeit nun weitgehend. Das neue Tag wird ganz einfach auf jeder Seite der Website pauschal eingefügt. Den Code bekommt man aus der automatisch erstellten Remarketing-Liste “Hauptliste”, welche aber anscheinend noch nicht in allen Konten verfügbar ist.

Die Zielgruppenauswahl geschieht wie gehabt über Liste, die auch kombiniert werden können. Basis der Listen sind dann in Zukunft aber vor allem URL-Kriterien, die auch logisch miteinander verknüpft werden können. Als Bausteine kann man hier jeweils URL-Bestandteile angeben. Damit ein Besucher in die Liste einsortiert wird, muss eine aufgerufene URL diesen Bestandteil

  • (nicht) enthalten,
  • (nicht) damit beginnen,
  • (nicht) darauf enden oder
  • diesem (nicht) vollständig entsprechen.

So könnte man beispielsweise URLs auswählen, die dem Shop-Bereich angehörten (enthält “/shop/”), aber nicht zu einer Aktion (enthält nicht die Wörter “aktion” oder “sale”). Das sähe dann so aus:

listendefinition-urls

Leider ist die AdWords-Hilfe bezüglich der Funktionsweise dieser Regeln noch etwas vage und enthält nur Beispiele zu Fällen, wo ein Bestandteil enthalten sein muss. Ob beispielsweise das Protokoll (http vs. https) berücksichtigt wird, wird nicht überliefert.

Auch wenn durch das einzelne Remarketing-Tag vieles leichter wird, ist es bei Websites mit kryptischen URLs mitunter kompliziert und fehleranfällig, mit URL-Parametern zu arbeiten. Auch sonst dürfte das Verfahren schon mal für unerwartete Ergebnisse sorgen, wenn URL-Bestandteile nicht ganz so eindeutig sind wie gedacht.

Zielgruppen aus Google Analytics

Auch bei Google Analytics soll es bald möglich sein, Remarketing-Listen anzulegen, wobei hierzu noch eine einmalige Anpassung des Tracking-Codes notwendig ist. Listen aus Analytics können dann einem AdWords-Account zur Verfügung gestellt und dort wieder wie gewohnt verwendet werden. Bis zum Ende des Sommers will Google dies Stück für Stück allen Nutzern mit Administrator-Rechten und verlinktem AdWords-Account zur Verfügung stellen.

Listen aus Analytics können deutlich umfassendere Kriterien abbilden, was etwas an die erweiterten Segmente erinnert. Mögliche Kriterien sind etwa die Erreichung von festgelegten Zielen (z. B. für mindestens 50 Euro eingekauft, hat die Website mindestens zweimal besucht) oder auch bestimmte Abfolgen von Handlungen durch Besucher (z. B. Einstieg über Bannerklick, dann Aufruf einer Produktdetailseite, dann Aufruf der Versandkosten-Übersicht).

Remarketing in der Google Suche

Für gewöhnlich werden Remarketing-Anzeigen nur im Display-Netzwerk geschaltet, allerdings testet Google auch die Ausdehnung auf die Suche und lädt Werbetreibende ein, sich bei ihren Ansprechpartnern dafür freischalten zu lassen.

Ich persönlich frage mich, inwiefern Google tatsächlich bereit ist, auch die eigene Suche fürs Remarketing zu verwerten. Dass Nutzer demnächst auch in der Suchmaschine mit derart personalisierter Werbung konfrontiert werden, erscheint mir mit Blick auf die Marke Google riskant. Das gilt vor allem hierzulande, wo Google sowieso schon der Ruf der Datenkrake anhaftet.

Datenschutz & Adblocker

Im Hinblick auf den Datenschutz hat die Entwicklung aber durchaus eine gewisse Brisanz. Auffällig ist, dass sowohl der Remarketing-Code für Analytics, als auch das Remarketing-Tag von AdWords nun doubleclick.net mit einbinden, so dass die entsprechenden Tracking-Cookies zum Einsatz kommen können. Bei AdWords wurden sogar die alten Remarketing-Tags, deren Code ja auch noch abrufbar ist, angepasst.

Für Google Analytics bedeutet die Neuerung jedenfalls eine Wandlung vom Analysetool zur Basis für eine Art von Werbekampagnen, die außerhalb der Banche keinen guten Ruf genießt. Das könnte zur Folge haben, dass sich die URLs der entsprechenen Tracking-Skripte ziemlich schnell auf den Sperrlisten von Adblockern wiederfinden, bzw. über doubleclick.net bereits gesperrt sind.

Eine solche Sperrung hätte zur Folge, dass Nutzer mit Adblockern durch Google Analytics nicht mehr erfasst werden könnten. Laut einer inzwischen zwei Jahre alten Untersuchung beträfe das in Deutschland gut 12% der Nutzer. Deren Wegfall käme in Analytics als ein Einbruch bei den Besucherzahlen daher. Wer sich über den Wegfall der Referrer-Daten aus der Google-Suche geärgert hat, dürfte dann keinen guten Tag haben.

Fazit

Die Neuerungen zeigen, dass Google auch beim Remarketing noch ordentlich Gas gibt. Sie zeigen auch einmal mehr, wie Google durch Verknüpfung seiner Dienste neue Möglichkeiten schafft. Gerade die Funktionalität rund um Remarketing-Zielgruppen wie sie Analytics bereitstellt, wird wohl kein anderer Anbieter so bald abbilden können.

Was Datenschutz und Adblocker angeht, könnte es aber gut sein, dass die Sache hierzulande noch Wellen schlägt.

Google Webmaster Tools vs. SISTRIX: Wie viele Seiten sind eigentlich im Index?

30. Juli 2012 | Von in SEO | 5 Kommentare

Es gibt ja in den Google Webmaster Tools einen neuen Menüpunkt “Indexierungsstatus”, über den man nun weitere Informationen zur Indexierung der eigenen Website abrufen. Für weitere Erklärungen und einige wirklich gute Beispiele verweise ich hier mal auf Search Engine Land (“Google’s New Advanced Index Status Report“).

Wie immer bei neuen Daten muss man sich ja mal fragen, ob das alles so stimmt und ob es mit anderen Daten übereinstimmt, die man aus anderen Quellen bekommt. Und da habe ich die Anzahl der indexierten Seiten von den Google Webmaster Tools mal mit denen aus der SISTRIX Toolbox verglichen (am Beispiel einer Domain, die keine weiteren Subdomains außer www. hat, weil das die Daten verfälschen würde):

Bild

Ausgeprägte Ähnlichkeiten kann ich zwischen diesen Kurven nun wirklich nicht erkennen. Das mag vor allem daran liegen, dass die Daten von SISTRIX natürlich anders erhoben werden (wohl mit site:).

Ich bin hier natürlich geneigt, Google “zu glauben”, also anzunehmen, dass Google hier korrekte Daten anzeigt. Das würde dann aber auch den Schluss zulassen, dass die site-Abfragen und die Werte a la “Ungefähr 11.100 Ergebnisse” eher gewürfelt sind.

Und wie immer: Was helfen einem eigentlich solche Zahlen?

Bild

Grundsätzlich finde ich die Daten von “Nicht ausgewählt” schon sehr interessant, aber noch besser wäre es natürlich, wenn Google mitteilen würde, warum manche Seiten nicht ausgewählt werden. Das kann ja verschiedene Gründe haben, die zudem noch munter in einen Topf geworfen werden (Redirect, wenig Content, wenig neuer Content, …). So erzeugt das Tool zwar nette Bildchen, ist als Analyse-Tool aber doch irgendwie nicht brauchbar.

Keine Panik – Webmaster-Tools-Nachricht wegen “unnatürlicher Links”

24. Juli 2012 | Von in Linkbuilding, SEO | 4 Kommentare

Vor ein paar Tagen (etwa 19. Juli) hat Google durch eine – nun ja – recht pauschale Nachricht bei vielen Webmastern einige Sorgenfalten auf die Stirn getrieben. Folgende Nachricht tauchte im Nachrichtenbereich der Webmaster Tools auf:

Bild

Im Anschluss gab es bei vielen Unternehmen und SEO-Agenturen so etwas wie Panik, dass die eigene Seite demnächst im Nirvana der Suchergebnisse verschwinden würde. Fieberhaft wurde nach “schlechten” Links gesucht, die möglichst bald entfernt werden sollten. Doch es gab auch Protest gegen diese Nachricht, die von vielen Unternehmen und SEOs als zu pauschal eingestuft wurden und auch nicht unbedingt mit Transparenz glänzte. Denn welche Seiten infrage gestellt werden, wurde natürlich nicht beantwortet.

Offenbar sah man sich bei Google dann auch genötigt, auf den Protest zu reagieren und die Pauschalaussage zu präzisieren. Dies tat unter anderem Matt Cutts in einem Post bei Google+, in dem er unter anderem wissen ließ:

“If you received a message yesterday about unnatural links to your site, don’t panic. In the past, these messages were sent when we took action on a site as a whole. Yesterday, we took another step towards more transparency and began sending messages when we distrust some individual links to a site. […] but it’s not necessarily something that you automatically need to worry about.”

Ferner schrieb er:

“If we’ve taken more severe action on your site, you’ll likely notice a drop in search traffic […]”

und auch

“[…] we changed the messages themselves that we’ll send out to make it clear that for a specific incident ‘we are taking very targeted action on the unnatural links instead of your site as a whole.'”

Wenn also kein Einbruch im Such-Traffic (s. eigene Analytics oder Webmaster-Tools) zu verzeichnen ist, kann man erst einmal wieder ausatmen. Eine weitere Beruhigungspille kommt dann bei vielen über die Webmaster Tools, wo bei Seiten, die sich weniger Sorgen wegen unnatürlicher Links machen müssen, eine weitere Nachricht auftaucht (allerdings ohne das warnende gelbe Symbol):

Bild

Im Klartext heißt das: Wer unnatürliche Links hat und sie beeinflussen (= löschen lassen) kann, sollte dieses tun, es mithilfe von E-Mails, einer Liste mit kontaktierten Websites etc. dokumentieren und im Anschluss bei Google einen Antrag auf Erneutprüfung stellen. Wenn man das nicht tut, ist das (vermutlich) kein Beinbruch, denn beim Suchmaschinenbetreiber weiß man natürlich auch, dass man nicht auf alle Links im Web Einfluss haben kann oder auf entstandene Links Einfluss hatte.

Also kurzum: Keine Panik. Insbesondere dann nicht, wenn man Empfänger der zweiten Nachricht geworden ist.

Es schadet natürlich trotzdem nicht, sich gelegentlich das eigene Linkprofil anzuschauen und gewisse merkwürdige Links entfernen zu lassen, wenn man sie nicht mit hinreichend gutem Gewissen beibehalten möchte. Vielleicht gibt es ja auch irgendwann in den Google Webmaster Tools die gleiche Möglichkeit wie bei Bing … Links selbst zu entwerten (siehe Blogpost von Markus).

Bloofusion-Webinar: Eine Vision für Shop-Betreiber: Der Content-getriebene Online-Shop

18. Juli 2012 | Von in SEO, Webinare | 3 Kommentare

Nachdem wir im Juli eine Webinar-Sommerpause eingelegt haben, richten wir nun am 31. August wieder ein Webinar speziell für Online-Shops unter dem Titel „Eine Vision für Shop-Betreiber: Der Content-getriebene Online-Shop“ aus.

Google hat mit seinen letzten Updates – vor allem dem Penguin-Update – klar gemacht, in welche Richtung sich Websites bewegen müssen. In diesem Webinar möchten wir Shop-Betreibern eine Vision vorstellen. Wir denken, dass sich Online-Shops weiterentwickeln müssen, um auch in Zukunft erfolgreich zu sein.

Dabei geht es vor allem um den Wandel vom reinen Händler zum Themen-Hub: Welche Inhalte muss ein Shop bereitstellen? Wie findet man heraus, welche Inhalte sich besonders gut für eine Verlinkung eignen? Welche Tools erleichtern die Recherche? All diese Fragen wird Markus Hövener in diesem Webinar beantworten.

Wir freuen uns auf zahlreiche Anmeldungen  für das kostenlose Webinar am 31. August (10-11 Uhr) unter www.bloofusion.de/webinar. Man sollte sich schnell einen Platz sichern, da die Teilnehmeranzahl auf 100 Teilnehmer begrenzt ist!

 

Rangliste kostenloser PR-Portale aktualisiert

11. Juli 2012 | Von in Linkbuilding, SEO | 12 Kommentare

Einer der Beiträge, der in diesem Blog am besten lief, ist wohl “PR-Portale im Vergleich: Rangliste für kostenlose PR-Portale erstellt“. Dazu kam eben ein neuer Kommentar rein:

Prima Arbeit und nützliche Liste!
Weiss jemand, was sich seit Panda und Pinguin daran änderte?

Da wir die Daten eh monatlich aktualisieren, kann ich sie hier gerne mal posten. Hier die Top 20 der Portale nach unserer kombinierten Metrik:

Bild

Da hat sich im Vergleich zu Anfang Januar 2011 doch einiges getan, was wohl vor allem auf Panda zurückzuführen ist…

Bing liefert auch Ranking-Daten: Bing- und Yahoo!-Nutzer ticken wohl wirklich anders…

9. Juli 2012 | Von in SEO | 3 Kommentare

Bing hat wieder nachgezogen und die Bing Webmaster Tools auch um Ranking-Daten erweitert (“Ranking data from Bing Webmaster Tools“).

Wer seine Website validiert hat, kann in der Sektion “Search Keywords” auf die neuen Daten zugreifen:

Bild

Bing unterscheidet interessanterweise zwischen “Avg Search Click Position” (auf welcher Position fand der Klick statt) und “Avg Search Appearance Position” (wo rankte die Site im Durchschnitt):

Bild

Die Daten kommen von Yahoo! und Bing zusammen, was wohl auch nötig ist, weil man im Vergleich zu Google schon merkt, dass der Traffic insgesamt recht gering ist und dass damit Daten wie die Klick-Rate manchmal keine Aussagekraft haben.

Immerhin: Die Daten werden nicht wie bei Google quantisiert. Man scheint hier wirklich die realen Traffic-Daten zu bekommen.

Und: Man kann sechs Monate lang zurückschauen, während es bei Google nur sechs drei Monate sind. Man kann zwar auch als Zeitraum mehr als sechs Monate auswählen, aber das führt nicht zu mehr Daten.

Bild

Interessant finde ich die Darstellung, bei der man sich für ein Keyword übersichtlich abrufen kann, welche Seiten für diese Suchanfrage Klicks bekommen habe. Im Beispiel sieht man den klassischen Fall, dass eine Website zwei Positionen einnimmt: Startseite auf der ersten Position, Unterseite auf der zweiten Position:

Bild

Die Klickrate von 25,68 finde ich hier für eine Brand-Suche schon sehr niedrig – zeigt aber vielleicht, dass die Werbungen bei Bing sehr gut klicken. Ich habe das noch für andere Brands durchprobiert und habe in keinem Fall eine CTR > 30% gesehen. Das finde ich im Vergleich zu Google schon sehr bemerkenswert. Vielleicht ticken die Bing- und Yahoo!-Nutzer wirklich etwas anders.

Und da die Bing Webmaster Tools kostenlos sind, muss man auch irgendwie wieder Geld reinkommen. Wer mit der Maus über das Dollarzeichen geht, erfährt dann auch, wie man Geld loswerden kann:

Bild

Der Aufforderung bin ich dann mal lieber nicht gefolgt. Wer sich aber für die Werbung via Microsoft adCenter interessiert, findet im nächsten suchradar (Ende August) dazu einen Artikel…

Aus der Praxis: Seiten blocken über HTTP-Header

3. Juli 2012 | Von in SEO | 7 Kommentare

Ein Link-Tool von uns hat eben die Seite http://www.spiegel.de/wikipedia/Schwab-Versand.html als Potenzial gefunden. Eine Seite, die immerhin einen Dofollow-Link auf www.schwab.de enthält:

Bild

Unser Tool prüft die ganz normalen Möglichkeiten, mit denen man einen Link entwerten kann, damit uns solche Potenziale gar nicht erst angezeigt werden:

  • Link ist Nofollow
  • Seite hat Robots-Meta-Tag Noindex bzw. Nofollow
  • Seite ist in robots.txt gesperrt

Alles ist bei der Seite nicht der Fall -aber im Index ist sie trotzdem nicht:

Bild

Im /wikipedia/-Verzeichnis gibt es sehr viele Dokumente, aber keines davon ist im Index vertreten. Also wie sperrt man denn Seiten, ohne die üblichen Methoden zu benutzen?

Der Blick in den HTTP-Header verrät’s:

Bild

Leider nur wird diese Direktive wohl nicht von allen Link-Datenbanken korrekt berücksichtigt, denn mind. eine muss diese URL geliefert haben.

Also: Wir basteln das gleich noch schnell in unser Tool rein. Ich frage mich nur, warum man das Sperren von Inhalten so machen sollte. Insbesondere wenn man dann Gefahr läuft, dass nicht alle Crawler das verstehen (Google + Bing interpretieren das aber richtig).

Aber das wird nur Spiegel.de wissen…

Das Venice-Update in Zahlen: Wer verdrängt eigentlich wen?

2. Juli 2012 | Von in SEO | 9 Kommentare

Über das Venice-Update, bei dem lokale Websites in Suchanfragen eingeblendet werden, wurde in den letzten Wochen viel geschrieben. Anders als bei vorherigen Updates gab es aber von den SEO-Tool-Herstellern keine Zahlen, da die Effekte vom Venice-Update schwer zu messen sind.

Wir haben das aber trotzdem mal versucht und für 50 unterschiedliche Suchanfragen die Top 10 Suchergebnisse für München, Köln, Hamburg, Frankfurt und Stuttgart ermittelt (Google Places ausgenommen, weil die per se lokal sind). Mit der Abfrage für fünf Städte bekommt man natürlich nur einen Bruchteil der möglichen Suchergebnisse, aber ich glaube, dass dieser Ansatz trotzdem vertretbar ist.

Herausgekommen ist dann auch das, was ich eigentlich auch schon vermutet hatte. Die folgende Tabelle zeigt die wichtigsten Ergebnisse:

Bild

Wir haben für alle Suchanfragen die Ergebnisse für fünf Städte ermittelt und konnten so feststellen, wie viele der Domains bei wie vielen Städten auftauchten. Wie man sieht ist es überwiegend so, dass eine Domain entweder nur bei einer Stadt vorkommt und bei allen Städten. Dass eine Domain nur bei zwei, drei oder vier Städten erscheint, ist hingegen selten.

Man sollte also einen Blick auf die zweite Spalte werfen: Bei den Domains, die nur in einer lokalen Ergebnisliste auftauchten, beträgt das durchschnittliche Ranking 6,42. Bei den Domains, die in allen lokalen Ergebnislisten erschienen, lag das durchschnittliche Ranking bei 3,63.

Und das besagt ganz klar: Die lokalen Ergebnisse werden eher auf den unteren Rängen der ersten Suchergebnisseite eingestreut, während Portale und andere nicht-lokale Ergebnisse eher auf den vorderen Plätzen zu finden sind. Die lokalen Ergebnisse verdrängen also schon andere Ergebnisse, sind aber keine Gefahr für Portale & Co., die zumeist auf den vorderen Rängen zu finden sind.

Beispiel: Wer nach “hotel” sucht, findet auf den ersten Positionen immer noch Hotel.de, HRS.de und weitere Sites, während die lokalen Hotel-Websites dann eher in der unteren Hälfte erscheinen.

Und wenn man sich dann auch noch typische Klick-Verteilungen auf den Suchergebnissen anschaut, werden die lokal eingestreuten Suchergebnisse wohl kaum relevante Klick-Zahlen erzielen – es sei denn, dass Nutzer lernen/wissen, dass weiter unten eben die lokalen Ergebnisse kommen. Damit ein solcher Lerneffekt eintreten kann, müsste Google aber viel konstanter in seinen Rankings sein.

Potenzial

Für lokale Unternehmen bietet Venice trotzdem spannende Potenziale. Die Statistiken zeigen ja nur die normale Verteilung an. In bestimmten Branchen mag das alles anders sein, weil es vielleicht keine starken Portale gibt. Wer z. B. nach “steuerberater” in München sucht, erhält als Top 2 die folgenden Ergebnisse:

Bild

Die Wikipedia wird wohl keine hohe Klick-Rate haben, weil sie nicht wirklich bei der Steuerberatersuche hilfreich ist. Aber das Portal Muenchen.de profitiert hier mit seinem Branchenbuch wohl überdurchschnittlich von der guten Einblendung.

Zusammenfassung, Strategie

Insgesamt sehe ich vier wichtige Aspekte, die für mich aus dem Venice-Update resultieren:

  • Grundsätzlich ist es so, dass das Venice-Update nicht dafür sorgt, dass quer durch die Bank lokale Websites nicht-lokale Websites von den vorderen Plätzen verdrängen.
  • Lokal agierende Unternehmen sollten (noch) mehr in Linkaufbau und dabei vor allem in lokalen Linkaufbau investieren, weil es je nach Branche schon möglich ist, weit nach oben zu kommen.
  • Lokale Verzeichnisse und ähnliche Sites mit lokaler Ausrichtung (wie muenchen.de) sollten Ranking-Vorteile haben und könnten daher auch in Bezug auf Reichweite an Relevanz gewinnen.
  • Unklar für mich ist noch, ob sich nicht-lokale Portale und Verzeichnisse Vorteile herausarbeiten können, indem sie ebenfalls auf lokalen Linkaufbau setzen. Empfehlenswert wäre das meiner Meinung nach aber schon.