Bloofusion
Logo Internetkapitäne Logo Internetkapitäne

Das neue suchradar 34 ist da: Mit Social Tools und neuem Layout

29. Februar 2012 | Von in Sonstiges | Ein Kommentar

suchradar-layoutÜberraschung! Das suchradar Ausgabe 34 steht ab sofort zum Download bereit – und erscheint diesmal im neuen, frischeren Layout! Wir waren einfach der Ansicht, dass das Magazin einen neuen Anstrich gebraucht. Auch die Website wird dem Redesign nicht mehr lange entkommen.

Und auch thematisch gesehen gibt’s natürlich viel Neues zu lesen.

Markus Hövener hat sich beispielsweise zum Titelthema mit den neuen Social-Modulen der SEO-Tools SISTRIX Toolbox und Searchmetrics Essentials beschäftigt und gibt dabei einen schönen Überblick über das, was man damit anstellen kann und in der anschließenden Shop Corner auch gleich, welche Erkenntnisse daraus gewonnen werden können.

Martin Schirmbacher beschäftigt sich mit möglichen Ausnahmen in puncto Markennennung auf Websites und in einem weiteren Gastbeitrag dieser Ausgabe zeigt Franziska Neubert, wie man eine Facebook-Anzeigenkampne aufbaut und wann sie sich lohnt. Teil 2 hierzu gibt’s übrigens in der kommenden Ausgabe.

Darüber hinaus gibt es natürlich noch viel mehr, zum Beispiel zu den folgenden Themen:

  • AdWords-Produktanzeigen: Warum sie wenig Aufwand machen und wenig Kontrolle zulassen
  • Authorship Markup für Autoren
  • “Hreflang”-Tag für internationale Websites: Wenn Google etwas verwechselt
  • Eine Folge “SEO in Action”: Eigene Frageportale aufbauen
  • Die LinkResearch Tools werden auf Herz und Nieren geprüft
  • Ein SEO-Einsteiger-Artikel: Wie man Inhalte für Suchmaschinen sperren und löschen kann
  • Und ein Meinungs-Artikel von Markus Hövener, der schreibt, warum es sinnvoll ist, schon bei der Planung von Websites das Thema Linkaufbau zu berücksichtigen.

Ein Dank für diese Ausgabe geht speziell an folgende Mitwirkende:
Markus für seine Artikel, Tina für das Redesign und die Nerven, die man dabei lassen kann, Fabian für das Marketing und die Anzeigen, die beiden Martins (Röttgerding und Schirmbacher) für ihre Artikel.

Wir sind gespannt auf euer Feedback – speziell interessiert uns in dieser Ausgabe natürlich auch, wie ihr das neue Layout findet.

Jetzt aber erst einmal: Kostenlos herunterladen!

Bing liefert Keyword-Datenbank mit Volumina: Ein kurzer Test

29. Februar 2012 | Von in SEO | 4 Kommentare

Bing hat bekanntgegeben (“Webmaster Tools announces new features“), dass es in den Bing Webmaster Tools jetzt auch eine Keyword-Datenbank mit Suchvolumina gibt. Das klingt natürlich erstmal interessant, um als Ergänzung zum Google AdWords Keyword Tool zu dienen.

Erreichen kann man das Tool leider nur, wenn man eingeloggt ist. Dann erreicht man die Auswertung über den Tab “Schlüsselwörter”:

Bild

Ein kleiner Nachteil besteht darin, dass das Tool nur max. sechs Monate zurückschauen kann, so dass z. B. Abfragen nach “weihnachtsgeschenke” im Juli kaum Ergebnisse bringen dürften. Interessant hingegen ist, dass es so scheint, dass die Daten nicht wie bei Google gequantelt sind.

Für einen Test habe ich einige Suchbegriffe ausprobiert und dafür die Suchvolumina von Google (Land = Deutschland, Sprache = Deutsch, Typ = Exakt) und von Bing (Land = Deutschland, Sprache = Deutsch, Zeitraum = sechs Monate, Typ scheint immer “Exakt” zu sein) ermittelt und miteinander verglichen:

Bild

Durch die Quantelung bei Google und die Durchschnittswerte von Google haben wir natürlich Ungenauigkeiten, aber damit können wir hier wohl leben. Man sieht schon, dass die Suchvolumina von Bing im Vergleich zu Google schon arg niedrig sind.

Diese Zahlen entsprechen interessanterweise nicht den bekannten Marktanteilen von Google und Bing, die man z. B. bei Webhits.de (-> Web-Barometer) nachschauen kann:

Bild

Da fragt man sich natürlich schon, wie dieser Unterschied zu erklären ist. Suchen die Leute auf Bing weniger? Oder eben nicht nach Mietwagen und Porzellan?

Google geht in die Offensive: Kampf den Expireds und Link-Blogs?

21. Februar 2012 | Von in Linkbuilding, SEO | 23 Kommentare

Unter der unscheinbaren Überschrift “Ein paar Tipps und Anmerkungen zum Linkbuilding” hat Google einen netten Blog-Beitrag verfasst. Google stellt dort vor, was SEOs tagtäglich sehen – dass Linkaufbau zum Teil über Expired Domains mit recht beliebigen Inhalten und auch zum Teil über Link-Blogs stattfindet, bei denen auch zu jedem Thema etwas geschrieben wird. Streng genommen würde ich das gar nicht trennen, weil auf den meisten Expired Domains Link-Blogs liegen :)

Das Beispiel, das Google rausgesucht, ist eigentlich ganz repräsentativ für das, wogegen Google angehen will:

Bild

Es stellt sich natürlich die Frage, ob der Post von Google ein Zeichen der Stärke (=wir können diese Blogs identifizieren und warnen Euch lieber vor) oder der Schwäche (=bitte lasst es sein, denn ihr bringt ja die Rankings alle durcheinander) ist. Wie in meinem letzten Post geschrieben, glaube ich eher, dass es ein Zeichen der Stärke ist.

Google klassifiziert das Problem auch ganz gut in seinem Post:

im Allgemeinen findet man auf diesen Link-Domains ziemlich einfachen und relativ sinnfreien Text, der sich oft auch wiederholt und auf bestimmte Keywords und Anchor-Texte zugeschnitten ist

Ich würde das so unterschreiben. Und ich glaube auch, dass Google einen Großteil dieser Domains sehr gut identifizieren kann.

Google als Teil des Problems

Ich glaube aber auch, dass diese Art von Linkaufbau nicht aufhören wird, solange Google nicht öffentlich macht, dass Links von bestimmten Sites entwertet werden. Solange solche Blogs von Google selber noch z. B. in den Google Webmaster Tools angezeigt werden, hat man doch immer noch den Eindruck, dass die ja auch irgendwie zählen müssen. Hier tut sich Google meiner Meinung nach also keinen Gefallen und unterstützt indirekt ein System, das sie eigentlich bekämpfen wollen.

Und dann halte ich den folgenden Tipp auch für ziemlich unsinnig:

Falls ihr euch entscheidet, mit einem SEO zusammenzuarbeiten, um eure Seite zu optimieren, macht euch vor der Wahl des SEOs schlau und lasst euch genau erklären, welche Optimierungsmaßnahmen er für eure Seite vorschlägt.

Das stimmt natürlich grundsätzlich, aber viele SEOs werden sich eben leider auch an der Konkurrenz orientieren. Und wer da sieht, welche Verlinkungen diese haben, wird in vielen Branchen nicht auf bestimmte Methoden des Linkaufbaus verzichten wollen.

Was folgt daraus?

Ich finde erstmal, dass das eigentlich nichts neues ist. Neu ist, dass Google das Problem auch mal richtig benennt und proaktiv vorgeht.

Für mich hat das aber grundsätzlich schon Folgen:

  1. Es gibt einfach in vielen Branchen nicht genug Möglichkeiten der Verlinkungen – auch nicht, wenn man den heiligen Content-Gral gefunden hat. Es wird also nach wie vor bestimmte Möglichkeiten der Verlinkung geben, die nicht organisch sind.
  2. Die Anbieter von Links werden besser werden müssen. Einfach ein Free Blog hochziehen reicht einfach nicht mehr. Da sehe ich aber schon viele Zeichen, dass da umgedacht wird. Bye-Bye Expireds? Ja, vielleicht…
  3. Wer Links kauft, sollte eben den Smell Test und die Frage stellen, ob es sich bei dem Portal um ein legitimes Portal handelt, das eventuell auch ohne Geldzuwendung oder Linktausch verlinkt hätte.
  4. SEOs müssen noch kreativer werden. Aber das ist eh ein fortlaufendes Rennen. Für den Linkaufbau, den man vor fünf Jahren gemacht hat, würde man sich heute zum Teil schämen. Und so werden wohl viele aus der Branche in fünf Jahren auf ihre guten alten Link-Blogs zurückblicken und sich wundern, wie einfach das damals war.

Wie Google ausgehende Links bewerten könnte, um den Link-Graph aufzuräumen…

17. Februar 2012 | Von in Linkbuilding, SEO | 17 Kommentare

Ich habe in den letzten Wochen aus reinem Interesse mal einen Account bei www.ranksider.de aufgemacht und dort für ein uns unwichtiges eigenes Blog um Links gebeten. Wer Ranksider nicht kennt: Auf der Plattform kann man eine Kampagne ausschreiben (“suche Links zum Thema Handy”) und dann bieten andere Blogs/Portale eben für einen Link.

Insgesamt war ich schon sehr überrascht, was sich da alles so anbot. Es ist wirklich sehr einfach, schnell 100 Links aufzubauen – wenn man denn keinen Anspruch an die Qualität der Links hat. Das ist kein Nachteil von Ranksider (oder Seolista oder…) an sich, sondern liegt einfach in der Funktion eines Marktplatzes begründet. Da bietet sich halt jeder an und man selber muss sich dann was auswählen.

Dabei kam mir – wie bei vielen anderen Linkanfragen – immer wieder derselbe Gedanke: Macht es Google doch nicht so einfach. Ich habe mal Informatik studiert und auch Suchmaschinen selber gebastelt – und so kommt in mir immer schnell der Gedanke auf, wie Google es denn schaffen könnte, legitime Blogs/Portale von illegitimen zu unterscheiden.

Denn grundsätzlich ist ein Blog ja erstmal ein Blog. Und ein Beitrag ist erstmal ein Beitrag. Und ein Link ein Link. Wie könnte Google das rausfiltern?

Die Vorbedingung

Ich glaube zunächst, dass Google sich bei einem Votum für oder gegen einen Link gar nicht sicher sein muss. Da es hier nur darum geht, bestimmte Links zu entwerten und nicht etwa Seiten aus dem Index zu entfernen, kann Google das machen, ohne dass es überhaupt jemand merkt. Wenn ein Votum falsch ist, ist das zunächst egal, weil es eh keiner nachprüfen kann.

Und ich glaube, dass Google die meisten Analysen sehr leicht auf Domain-Ebene machen kann. Neben Werten wie PageRank oder Domain Pop könnte eine Suchmaschine also einen “Link Trust” einführen, der besagt, wie sicher sich die Suchmaschine ist, dass es sich bei den Links von dieser Website um “gute Links” handelt. Das wird wohl kein 0/1-Wert sein, sondern kann auch auf einer Skala liegen.

Wie denn?

Die meisten Link-Datenbanken bieten eine Auswertung der Ankertexte an, z. B. bei Majestic SEO:

Bild

Wer hier fast nur für sein Keyword verlinkt wird, kann natürlich leicht bei Google in Ungnade fallen. Deswegen bieten die Tool-Hersteller solche Auswertungen an: um Konkurrenten zu überprüfen, aber auch um das eigene Linkprofil im Auge zu behalten.

Man kann so einen Report aber auch umdrehen, denn bei der Auswertung oben geht es ja um eingehende Links. Google kann sich dank seiner unglaublichen Datenbank sehr genau vorstellen, was ein normales ausgehendes Linkverhalten ist. Dazu gehört z. B., dass man ausgehende Links mit Ankertexten wie “hier” oder “www.domain.de” oder “jetzt downloaden” hat.

Wie sieht es also für Google aus, wenn ein Blog keine solchen ausgehenden Links hat und stattdessen auf Websites mit Ankertexten wie “Ratenkredit günstig” oder “Ferienhaus” verlinkt? Google kann hier verschiedene Ansätze nutzen:

  1. Statistische Auswertungen: Was ist ein normales ausgehendes Linkverhalten? Welche Ankertexte sind normal?
  2. Listen: Eine Suchmaschine könnte sich die umkämpften Suchbegriffe zusammensuchen und dann gegen diese Liste prüfen, ob ein Blog mehrheitlich darauf verlinkt. Alleine mit diesem einfachen Ansatz könnte man schon die Mehrheit der SEO-Blogs erkennen.
  3. Inhaltlicher Fokus: Wenn man alle ausgehenden Links miteinander vergleicht, sollte es möglich sein zu erkennen, ob es einen thematischen Fokus gibt. Also: Ein Blog, das immer nur auf Pferde-Themen verlinkt, ist unauffälliger als ein Blog, das auf nahezu jedes Thema verlinkt.
  4. Eingehende Links im Vergleich zu ausgehenden Links: Am Beispiel des Pferde-Blogs kann man erkennen, dass es hier eine hohe thematische Überdeckung der ein- und ausgehenden Links geben würde. Websites zum Thema Pferde verlinken auf das Blog und das Blog verlinkt wiederum auf Websites zum Thema Pferde.

Was folgt daraus?

Man sollte bei seinen Verlinkungen nicht nur auf die klassischen Werte schauen (PageRank, Domain Pop, Class C, …). Denn diese Werte können alle stimmen, ohne dass das Blog trotzdem gut ist.

Wenn man sich mal vor Augen führt, welchen Aufwand Google mit Panda & Co. getrieben hat, um die Qualität einer Website zu bewerten, erscheint es doch nur logisch, dass Google auch sehr genau Websites in Bezug auf ihre ausgehenden Links überprüft.

Also:

  1. Der “Smell Test” ist extrem wichtig. Sieht eine Website legitim aus? Gibt’s dort nur die typischen Ferienhaus-/Ratenkredit-Links oder auch echte Inhalte, die auch mal keine Links haben?
  2. Wer selber so ein Blog betreibt, kann also einiges tun, um in den Augen Googles nicht aufzufallen. Das erfordert aber sehr viel Arbeit, weil man dann eben auch Beiträge liefern muss, die nicht bezahlt werden.
  3. Der klassische “billige” SEO-Link-Blog (verlinkt auf alles und jeden) ist meiner Meinung nach schon seit einiger Zeit tot. Bessere Links bekommt man aus echten Umfeldern. Das ist mehr Aufwand, rechnet sich aber.
  4. Es wäre cool, wenn es hier Tool-Unterstützung gäbe. Ein Tool, das die ausgehenden Links analysiert und auf der Basis eine Einschätzung gibt, wie natürlich das Linkmuster ist.

Und: Es geht halt – zumindest langfristig gesehen – nichts über echte Links. Also ein Link, der wirklich als solcher entstanden ist. Als Votum, dass eine andere Website gut ist.

Aber ich gestehe ein, dass das sehr schwierig ist, wenn es um Ratenkredite, Kredite ohne Schufa oder Hämorrhoiden-Salben geht.

Neues Advisory: Google+-Seite mit eigener Website verbinden

16. Februar 2012 | Von in SEO | 5 Kommentare

Wir haben auf Bloofusion.de ein neues Advisory online gestellt: Mit Google+ bessere Brand-Suchergebnisse erreichen. Dabei geht es um die Verbindung zwischen Google+ und Websites.

In dem Advisory beschreiben wir zunächst mal, wie es geht und warum man das machen sollte. Denn Unternehmen können so von einer besseren Darstellung in den Suchergebnissen profitieren, wenn nach dem eigenen Brand gesucht wird.

Und wir haben mal geprüft, wie viele Online-Shops das eigentlich schon implementiert haben. Die Zahlen zeigen schon, dass die Top-Shops da eindeutig schneller sind:

Bild

Als Positivbeispiele – vor allem dafür, was dann in Google zu sehen ist – sei auf Conrad oder Titus verwiesen, die das meiner Meinung nach sehr gut umgesetzt haben.

Conrad.de:

Bild

Titus.de:

Bild

Das Advisory kann sich natürlich bei uns kostenlos runterladen

Wir verlosen ein Ticket für die Affiliate TactixX 2012

13. Februar 2012 | Von in Sonstiges | 45 Kommentare

Bereits zum sechsten Mal in Folge findet am 27./28. März die größte deutsche Affiliate-Marketing-Konferenz statt: Die Affiliate TactixX 2012. Wie jedes Jahr haben unsere Kollegen von explido wieder interessante Intensiv-Workshops vorbereitet und hochkarätige Referenten gewonnen.

Auch das Networking rund um die Affiliate TactixX wird natürlich nicht zu kurz kommen. Angefangen bei der 100qm großen Affiliate TactixX Area inklusive Speakers Corner – bis hin zu einem Speed Networking und der Networking Party auf der Praterinsel. Die Party wird übrigens zusammen mit den Gästen der SMX und der Internet World stattfinden.

Das vollständige Konferenzprogramm gibt es unter www.affiliate-tactixx.de/programm/programm-tag-eins-konferenz/.

Aufgepasst! Wir verlosen eine Eintrittskarte im Wert von 399 € für die Affiliate TactixX 2012.

Same procedure as every time:

Wer gewinnen will, muss auch etwas dafür tun. Bitte schreibt einen kurzen Kommentar, welche Session ihr bei der TactixX am spannendsten findet und die ihr unbedingt besuchen wollt. Den Gewinner ziehen wir dann am 1. März. Der Rechtsweg ist natürlich wie immer ausgeschlossen.

Wer sich allgemein über das Programm oder Tickets informieren möchte, kann dies auch hier tun: www.affiliate-tactixx.de

Wir sehen uns dann in München …

Neu von Bing: Das Webmaster Tools Markup Validation Tool

7. Februar 2012 | Von in SEO | 2 Kommentare

Bing hat – analog zum Rich Snippets Testing Tool von Google – auch ein Tool bereitgestellt, mit dem man Markup in HTML-Dateien überprüfen kann. Das Tool erreicht man leider nur, wenn man sich in die Bing Webmaster Tools einloggt und dann noch zwei Klicks tätigt:

Bild

Auch wenn man es erst so annehmen könnte, kann man dort Markup für beliebige URLs kontrollieren – auch für solche, die man eben nicht validiert hat. Warum man dann eingeloggt sein muss, erschließt sich mir wirklich nicht.

Interessant ist, dass das Tool sehr viele unterschiedliche Markups – und auch Daten von Open Graph – überprüfen kann:

Bild

Vor allem aber sind da wohl die Schema.org-Markups interessant, die auch gut erkannt werden:

Bild

Bild

Also: Soweit ein nützliches Tool. Besser wäre es natürlich, wenn das Tool auch anzeigen würde, was Bing dann damit macht. In den Rich Snippets Testing Tool bekommt man ja gleich einen Preview des Suchergebnisses.

Bing hat zwar auch einige Rich Snippets, aber nicht in dem Maße, in dem Google es hat. Man kann hier also überprüfen, ob die Markups stimmen, ohne dass man weiß, ob das in Bezug auf Bing jemals was bringen wird.

Abschließend hier noch der Link auf den Blog-Beitrag von Bing:
Webmaster Tools Markup Validation Tool

Bloofusion-Webinar: „Linkaufbau über Suchmuster: Mehr Links für Shops, Portale & Co“

6. Februar 2012 | Von in SEO, Webinare | 8 Kommentare

Nach unserem allgemeinen Webinar „Das SEO-Briefing 2012“ bieten wir am 28. Februar nun ein kostenloses, themenspezifisches  Webinar an: „Linkaufbau über Suchmuster: Mehr Links für Shops, Portale & Co“.

Jede Website benötigt Verlinkungen, um gute Google-Rankings zu erzielen. Aber wie findet man passende Websites, die einen Link auf den eigenen Shop oder das eigene Portal setzen können?

In unserem Webinar stellen wir einen Ansatz vor, den wir für viele Kunden nutzen: den Linkaufbau über Suchmuster. Bei dieser Methode werden bestimmte Eigenschaften von relevanten Seiten ermittelt, um dann gezielt danach suchen zu können.

Markus Hövener gewährt Ihnen anhand unseres Inhouse-Tools „Bloofusion LinkMonitor” einen Einblick in einen Teil unseres  Linkaufbau-Prozesses, um gezielt hochwertige Links zu finden und somit nachhaltigen und effizienten Linkaufbau betreiben zu können.

Wir freuen uns auf zahlreiche Anmeldungen für das kostenlose Webinar „Linkaufbau über Suchmuster: Mehr Links für Shops, Portale & Co“ am 28. Februar 2012 (11-12 Uhr) unter  www.bloofusion.de/webinar.

Bye-bye 7-Pack? Google räumt bei den Places auf

3. Februar 2012 | Von in Local Search, SEO | 7 Kommentare

Sebastian Socha hat heute morgen einen neuen Beitrag (“Google reduziert Sichtbarkeit der Places Suchtreffer in den SERPs“) als Reaktion auf einen Beitrag von Mike Blumentahl (Is Google Reducing the Local Search Result Footprint?) geschrieben. Demnach hat sich – wie mir auch schon aufgefallen war – die Anzahl der Places-Einträge in Suchergebnissen verringert.

Den Beobachtungen zufolge gibt es immer häufiger 3-Packs anstelle der übermächtigen 7-Packs. Bei einigen Suchbegriffen habe ich das schon gesehen, aber ich will’s dann ja auch gerne genau wissen. Also habe ich einen Crawler gestartet, der 150 lokale Suchanfragen (jeweils Branche + Stadt) an Google stellt, um das Ergebnis dann auszuwerten. Leider fehlt hier jeweils der Vergleich zu vorher.

Also, hier kommen die Daten:

Bild

Die Daten sind leider etwas verzerrt, weil in diesem Fall auch AdWords mitgezählt wurden, die eine lokale Erweiterung haben. Aber man sieht trotzdem, dass es auf einmal eine starke Bandbreite von doch sehr unterschiedlichen Anzahl gibt.

Ich würde also nicht unterschreiben, dass es jetzt nur noch 3-Packs gibt. 7-Packs scheinen wirklich der Vergangenheit anzugehören, aber meine Schlussfolgerung ist eher, dass Google jetzt alle Arten von X-Packs anbieten – so, wie es gerade “passt”.

Das 8-Pack habe ich erst auch für einen Crawling-Fehler gehalten, aber es gibt’s wirklich:

Bild

Also: Google bastelt weitere. Und ich finde es gar nicht so schlimm, dass die 7-Packs reduziert wurden. Oftmals waren die Ergebnisse wirklich nicht so relevant. Dafür wird jetzt aber der Kampf um die restlichen Listings härter geführt werden.

Analyse von Keyword-Links: Wie einfach es für Suchmaschinen doch manchmal ist…

2. Februar 2012 | Von in Linkbuilding, SEO | 11 Kommentare

Ich möchte ein paar Zahlen teilen, die eines unserer internen Link-Tools für uns gesammelt hat. Für die Auswertung haben wir uns insgesamt 21.652 Verlinkungen von Websites angeschaut, die für ein heiß umkämpftes touristisches Keyword in der Google Top 10 zu finden sind.

Dabei haben wir die Links immer unterteil in “Exact” (der Anchortext entspricht exakt dem Zielsuchbegriff) und “Partial” (Das Keyword kommt irgendwo im Anchortext vor). Und wir haben die Links in “Home Page” (Link kommt von einer Startseite), “Site-wide” (der Link befindet sich auf jeder Seite der Website) und “Single Link” (nur eine Seite der Website verlinkt) unterteilt.

Hier zunächst die Zahlen:

Bild

Mir fällt dabei folgendes auf:

  1. Ich hätte erwartet, dass es hier mehr Site-Wide-Links gibt. Aber wahrscheinlich hat sich langsam die Erkenntnis durchgesetzt, dass solche Links von Google natürlich sehr einfach algorithmisch zu erkennen sind.
  2. In jeder Kategorie überwiegt “Partial” deutlich. Der klassische Keyword-Link ist offensichtlich nicht immer das Ziel aller SEOs.
  3. Die Links mit “Exact” haben eine geringere durchschnittliche Domain-Popularität im Vergleich zu “Partial”.
  4. Wenn man sich die Auswertung der durchschnittlichen Domain-Popularität anschaut, sieht man aber auch, dass die Non-Keyword-Links deutlich höhere Werte aufweisen. Das liegt vor allem daran, dass hier eben gute organische Links von relevanten Portalen und Magazin zustandegekommen sind. Es zeigt aber auch, dass Google hier ein Potenzial hat/hätte, Keyword-Links gezielt abzuwerten. Denn wie sieht es aus, wenn viele schlecht verlinkten Portale mit einem Keyword verlinken, aber alle gut verlinkten Portale das eben nicht machen? Macht man es Google da nicht besonders leicht zu erkennen, wer beim Linkaufbau nachgeholfen hat?

Man sieht hier ein klassisches Problem des Linkaufbaus: Keyword-Links bekommt man traditionell von Websites, die selber nicht gut verlinkt sind. Und damit erzeugt man natürlich ein Muster, das eigentlich gut algorithmisch zu erkennen ist. Wie gesagt: Ich habe hier nicht den Eindruck, dass Google etwas gegen die aktuelle Verteilung hat, aber man muss ja immer auch etwas weiter denken.

Im Moment glaube ich, dass Google recht nachsichtig ist. Wenn es ein paar Keywordlinks gibt, die aber nur einen Teil der Links ausmachen, hilft das, solange man es eben nicht übertreibt. Keywordlinks funktionieren als Beimischung gut, wenn es eben auch viele andere Links gibt. Aber ich kann mir durchaus vorstellen, dass Google das zukünftig noch etwas anders behandelt und sehr genau hinschaut, wer solche Linkmuster hat.

Wobei ich natürlich grundsätzlich sagen muss: Anhand der Zahlen kann man ja noch nicht einmal sagen, dass Google die Keywordlinks überhaupt gewertet hat. Vielleicht wirft Google die ja auch schon weg, weil es eben genau solche Analysen macht. Die Link-Datenbank liefert die Links auch dann, wenn Google diese ignoriert. Und dann bleibt noch die Frage, wie Google mit auffälligen Websites umgeht: Einfach nur die Links entwerten, als hätte es sie nicht gegeben? Oder auch eine Abwertung der restlichen guten Links?

Fragen über Fragen, die wir sicherlich niemals klären können.

Wichtig bleibt für mich aber nach wie vor das alte Mantra:

  1. Google benötigt Links für die Berechnung der Rankings. Nur On-Page oder Social reichen einfach nicht.
  2. Google wird bei der Analyse der Links immer besser werden.
  3. Beim Linkaufbau sollte man sehr genau darauf achten, dass er auch wirklich organisch aussieht. Das geht natürlich nur näherungsweise, weil ein wirklich organischer Linkaufbau in der Praxis einfach nicht möglich ist.

|