Bloofusion
Logo Internetkapitäne Logo Internetkapitäne

Semantische Link-Erkennung: Ein paar Gedanken zur Linkanalyse (wie es sein könnte)

12. Mai 2011 | Von in Linkbuilding, SEO | 7 Kommentare

Google sagt öfter, dass man dank semantischer Technologie in der Lage sei, wertvolle von wertlosen Links zu trennen. Da ich selber mal in grauer Vorzeit Suchmaschinen entwickelt habe, frage ich mich bei solchen Äußerungen natürlich immer, wie ich so etwas selber implementieren würde – in der Hoffnung, dass Google sich ähnliche Gedanken macht.

Man darf natürlich niemals vergessen, dass alle Methoden, die man sich so ausdenken kann, auch effizient berechnet werden können müssen. Denn grundsätzlich wird Google nicht mehr in der Lage sein, sich jeden Link Stück für Stück anzuschauen und nach zig Kriterien zu bewerten. Da müssen schon Heuristiken zum Einsatz kommen.

Im Folgenden stelle ich eine Idee vor, die ich für sinnvoll halte und von der ich glaube, dass sie so oder so ähnlich auch zum Einsatz kommen könnte – und sollte.

Themenwolken

In den Google Webmaster Tools zeigt Google mir ja eine Liste der Suchbegriffe und Suchbegriffsvariationen an, um die es in meiner Website geht. So sieht das dann beim suchradar aus:

Bild

Das macht so natürlich inhaltlich Sinn. “Google”, “seo”, “sem” und so weiter sind sicherlich Kernthemen der Website.

Wenn man nun davon ausgeht, dass Google für jede Website eine solche Themenwolke hat, könnte Google ja überprüfen, wie sich meine Themenwolken verhält im Vergleich zu

  1. den Themenwolken aller eingehenden Links
  2. den Themenwolken aller ausgehenden Links

Bild

Themenfaktoren

Beim suchradar müsste es hier große Überschneidungen geben. Die eingehenden Links werden wohl alle etwas mit SEO/SEM zu tun haben; die ausgehenden Links auch zum großen Teil.

Google könnte nun hieraus zweierlei ermitteln:

  1. Einen Faktor (“Thematic Match”), der besagt, wie gut meine Themenwolke zu den ein- und ausgehenden Themenwolken passt. So ein Faktor läge z. B. bei 0.0, wenn Hinz und Kunz auf mich verlinken, meine Website alle möglichen Themen behandelt und meine Website auch auf Hinz und Kunz verlinkt. Beim suchradar läge der wahrscheinlich eher nahe bei 1.0, weil es eben große Überschneidungen gibt.
  2. Eine Themenwolke (“Thematic Cloud”), die angibt, für welche Themen ich besonders authoritär bin.

Einsatz der Faktoren

Wenn Google nun einen einzelnen Link beurteilen muss, kann es zunächst den Thematic Match nutzen, um den Link entsprechend zu bewerten. Es werden natürlich andere Faktoren in die Gleichung einfließen. Wenn man sich die klassische PR-Gleichung hernimmt, wären das dann Faktoren wie die Link-Popularität der verlinkenden Seite und die Anzahl der ausgehenden Links. Hier könnte dann der Thematic Match als zusätzliches Signal einfließen, so dass Links von thematisch kohärenten Sites besonders hoch bewertet würden.

Das würde im Übrigen auch das Problem der allgemeinen Verzeichnisse und Social-Bookmarking-Sites lösen, weil diese ja einen Thematic Match von ~0.0 hätten. Diese Links würden also noch ein klein bisschen in die Gleichung einfließen, aber keinen großen Einfluss haben.

Wichtig ist natürlich, dass Thematic Match nur ein Faktor ist. Ein Link von SPON wird ja immer gerne als Ritterschlag unter den Links angesehen, obwohl man SPON sicherlich einen niedrigen Thematic Match zuordnen würde. Hier würden dann aber andere Faktoren wie Domain Popularity und Authority reinspielen und dem Link so wieder einen hohen Wert geben.

Die Thematic Cloud könnte zudem auch noch genutzt werden, um einzelne Links doch noch zu bewerten. Denn ein Link, der nicht zur Thematic Cloud passt, könnte dann trotzdem noch abgewertet werden. Beispiel: suchradar mit hohem Thematic Match verlinkt auf einen Musik-Online-Shop (wie in einigen Artikeln passiert). Dieser Link ist dann thematisch unpassend, könnte auch schnell algorithmisch als unpassend erkannt werden.

Konsequenzen

Aus Sicht einer Suchmaschine sollte ein solches Vorgehen Sinn ergeben. Wenn z. B. ein Anbieter von Reitsportartikeln Links von anderen Reitsport-Websites bekommt, die jeweils einen hohen Thematic Match haben, wäre das alles leicht zu erkennen.

Google (und andere Suchmaschinen) müssen ja gegen unpassende Links vorgehen – vor allem gegen gekaufte. Wenn man sich also auf einer PS3-Website einen Link auf einen Fertighaus-Anbieter kauft, muss Google diesen effizient abwerten können, auch wenn der Ankertext “Fertighaus” lautet. Über ein solches Modell könnte das effizient geschehen.

Google könnte so auch viele der Satelliten-Blogs entwerten. Hier geht es ja darum, dass schnell mehrere Blogs aufgebaut werden (z. B. pferdesportaktuell.blogspot.com), die manchmal mit sehr “billigen” Links versehen werden (also z. B. über Social-Bookmarking-Sites). Wenn Google allerdings die eingehenden Links nach Themenwolken bewertet, wäre klar, dass derartige Links von Allerwelt-Sites keinen Wert mehr hätten und dass der Satellit auch keinen Wert mehr hätte.

Wenn man also an dieses Modell glaubt, muss man hier etwas umdenken und nicht nur für Link-Popularität sorgen, sondern sich wirklich gut innerhalb der Thematik (eingehend wie ausgehend) verlinken.

Auch müssten Links insgesamt umfassender bewertet werden (von Tools wie Linkscape oder Majestic SEO). Die derzeitigen Metriken sind ja allesamt zahlenbasiert und basieren auf Modellen, bei denen die Thematik eines Link nicht betrachtet wird. Hier bräuchte man eine explizite Bewertung der Thematik, mit der Möglichkeit, sowohl den Thematic Match als auch die Thematic Cloud einzusehen.

Und das Modell gibt Social Media weiteren Auftrieb, weil es eben auch impliziert, dass man Links von “echten” Blogs und Portalen bekommen und Links nicht einfach nur nach Link-Popularität zusammenkaufen sollte. Wir haben es z. B. mit einer Social-Media-Aktion in der letzten Woche geschafft, dass innerhalb einer für uns wichtigen Branche die fünf wichtigsten Marktteilnehmer auf unser Portal verlinkt und das auch noch getwittert haben. Auch wenn sich das nicht direkt im SEO-Traffic niedergeschlagen hat, glaube ich, dass derartige Links extrem wertvoll sind und mittelfristig helfen, sich gegen andere Portale durchzusetzen.

Fazit

Ich weiß natürlich nicht, ob Google es wirklich derart implementiert – aber sinnvoll wäre es auf jeden Fall. Und wenn man glaubt, dass derartige Überlegungen sinnvoll sind, hat das auch Auswirkungen auf den Linkaufbau – sowohl den unbezahlten als auch auf den bezahlten.

Da Google aber nicht mitteilt, welche Links gut und schlecht oder sogar komplett entwertet sind, werden wir das wohl niemals herausfinden. Ist halt eine Glaubensfrage…

Neues E-Book “Rechtliche Stolperfallen beim Facebookmarketing” von allfacebook.de

11. Mai 2011 | Von in Sonstiges | Ein Kommentar

Endlich einmal ein “Buch”, das sich um das Thema Facebook-Marketing von rechtlicher Seite dreht:

rechtliche-stolperfallen-facebook

 

Die Rechtsanwälte Thomas Schwenke und Sebastian Dramburg (spreerecht.de) sowie Jens Wiese und Philipp Roth von allfacebook.de haben das E-Book “Rechtliche Stolperfallen beim Facebookmarketing” verfasst und beschäftigen sich auf knapp 100 Seiten mit rechtlichen Fallstricken, die sich beim unternehmerischen Umgang mit der Social-Media-Plattform ergeben können – von der Schaffung eines neuen Accounts über Impressumspflichten aber auch in Bezug auf die oft genutzten und nicht immer unproblematischen Gewinnspielaktionen wird hier praxisbezogen viel Aufklärung betrieben. Und das alles nicht ausschweifend, sondern in flüssiger Schreibe und gut lesbar.

Etwas merkwürdig mutet die Nummerierung an, die auf (eigentlich) Seite 6 mit “Seite 1″ beginnt. Gewöhnungsbedürftig. Außerdem nimmt man sich so die Möglichkeit im Adobe Reader – oder einem anderen PDF-Lesetool – einfach die Seitenzahl in die Menüleiste einzutippen und auf der richtigen Seite zu landen.

Inhaltlich ist aber mit dem E-Book ein umfassendes Dokument entstanden, dass in keinem “Regal” von Social-Media-Veranwortlichen fehlen sollte.

Der Link zum Download: http://allfacebook.de/wp-content/uploads/2011/05/facebook_recht.pdf

Linkaufbau über Kataloge/Verzeichnisse: Bringt nichts mehr? Doch…

4. Mai 2011 | Von in Linkbuilding, SEO | 38 Kommentare

Ich glaube, dass in der Branche halbwegs Konsens herrscht, dass multiple Eintragungen in Verzeichnisse entweder nichts bringen oder sogar schaden können. Aus aktuellem Anlass beginne ich daran mal wieder zu zweifeln.

Die Website, um die es geht, stört einen unserer Kunden, weil die Website für eine bekannte Marke sehr gut rankt. Streng genommen rankt nur die Marke selber besser.

Wenn ich mir die Domain in unseren Link-Auswertungen anschaue, steht da:

Bild

Zu lesen: Der Shop hat Verlinkungen von 137 Domains, aber nur 4 (!), die nicht von bei uns “Standard-Links” genannten Quellen kommen – also Verzeichnisse, Kataloge, Social Bookmarks, etc.

Von den vier “legitimen” Links, die der Shop hat, kommt einer aus einem Forum, zwei aus seinem eigenen Netzwerk und einer ist ein Link, der eigentlich auch ein Verzeichnis ist. Insgesamt hat die Site also nur einen einzig wirklich guten Link. Alles andere sind Links, die algorithmisch extrem leicht als Standard zu erkennen sind.

Da kratzt man sich dann schon am Kopf, was Google mit dem ganzen Panda-Kram will, wenn solche Sites immer noch vorne stehen. OK, so ganz konstant ist das Ranking nicht, aber anscheinend klappt das Ganze dann doch über weite Strecken ganz gut:

Bild

Sorry, aber das sind so Frustmomente im Job. Da kann ich nur hoffen, dass Google wirklich besser wird in der Erkennung und mal die Maßstäbe ansetzt, die man erwarten dürfte…

Das neue suchradar Ausgabe 29 ist da: Fokusthema “Google AdWords”

4. Mai 2011 | Von in Sonstiges | 9 Kommentare

cover-apr-2011-150w

Das neue suchradar Ausgabe 29 haben wir gerade online gestellt. Zugegeben: einige Tage zu spät, aber manchmal gibt es einfach Verzögerungen, die sich nicht vermeiden lassen.

Unser Head of SEM Martin Röttgerding und einige Gastautoren (Mischa Rürup von intelliad, Martin Schirmbacher von HÄRTING Rechtsanwälte, Olaf Kopp von SEM Deutschland) haben Tag und Nacht geschrieben – und so das Fokusthema “Google AdWords” für suchradar auf fast 30 Seiten gebracht. Da sollte wirklich für jeden etwas dabei sein, der sich mit AdWords beschäftigt.

Darüber hinaus gibt’s auch wieder einige SEO-Themen, die die Lektüre wohl wert sind. Und News. Und “Kurz vorgestellt”. Und ein Agenturverzeichnis mit allen Agenturen, die unser Projekt unterstützen.

In jedem Fall: viel Spaß beim Lesen.

Titelthema”Google AdWords”:
> Die große AdWords-Checkliste
> Die Entschlüsselung des AdWords-Qualitätsfaktors
> Die Komponenten des Qualitätsfaktors
> Der Qualitätsfaktor: Strategien, Tricks und Fallstricke
> AdWords Campaign Experiments (ACE)
> Google AdWords Werkstatt: Automatisierte Regeln
> Brand Bidding: Der Stand der Dinge in der deutschen Rechtsprechung

Außerdem:
> Link Audits: Wer verstößt gegen Googles Link-Richtlinien?
> Linkbaits: Was sind Linkbaits?
> Mobile SEO: Strategien zur mobilen Suche – eine Übersicht
> Panda Update: Googles Kampf für höherwertige Websites
> Produktsuchmaschinen: Durchblick im PSM-Dschungel
> Sneak Preview: Ein erster Blick auf die Ranking-Faktoren 2011
> SEO und SEA: Die optimale Verknüpfung

Auf Platz 1, aber noch ein 7-Pack drüber: Wie viel Traffic verliert man dadurch?

3. Mai 2011 | Von in Local Search, SEO | Keine Kommentare

Wir beschäftigen uns ja relativ viel mit der lokalen Suche. Wir haben Zugriff auf die Webmaster-Tools-Daten für ein Portal, das die lokalen Suchanfragen in einer bestimmten Branche nahezu dominiert. Für alle Suchbegriffe der Form “<keyword> + <stadt>” ist diese Website konsequent auf Position 1 oder 2 – und das seit Jahren.

Nun hilft einem das beste organische Top-Listing nichts, wenn Google seine Places-Einträge einstreut, was bei lokalen Anfragen ja oftmals passiert. Auch wenn man dann organisch auf der ersten Position ist, hat man evtl. noch sieben Places-Einträge über sich.

Zum Glück ist es bei dem Portal bzw. den lokalen Suchbegriffen aber so, dass das nicht immer passiert. Es gibt dann verschiedene Fälle:

  1. Ein 7-Pack über den organischen Suchergebnissen (in ganz seltenen Fällen auch nur ein 3-Pack, was ich für diese Auswertung ignoriere)
  2. Hybride/gemischte Suchergebnisse, die an unterschiedlichen Positionen erscheinen können, aber bei dieser Auswertung meistens so, dass die ersten sieben Ergebnisse hybrid waren
  3. Gar keine Places-Einträge (also ein “echtes” organisches Top-Ranking)

Ich habe nun mal die Suchbegriffe in Cluster eingeteilt, um zu prüfen, welche dieser Fälle bei diesem Portal vorkommen und wie sich das auf die Klickraten auswirkt. Die Klickraten stammen dabei aus den Google Webmaster Tools. Ich traue diesen Daten nicht besonders, weil sie gequantelt sind und daher nicht genau sind.

Auch haben wir natürlich das Problem, dass die Darstellungsform variieren kann. Nur, weil ich für “<keyword> München” keine Places-Einträge sehe, heißt das ja nicht, dass jemand aus München das nicht ganz anders angezeigt bekommt.

Wenn man sich bewusst ist, dass die Daten mit Vorsicht zu genießen sind, finde ich aber schon eindeutige Trends:

Fall 1: Website ist organisch auf #1, keine Places-Einträge drüber
Die Klickrate überschreitet konstant die 20%-Hürde, liegt meistens zwischen 20% und 30%.

Fall 2: Website ist organisch auf #1, aber 7-Pack drüber
Die Klickrate liegt bei ca. 8-10%.

Fall 3: Es werden sieben hybride Suchergebnisse angezeigt, gefolgt vom Portal auf #8
Die Klickrate liegt bei ca. 4%.

Fazit

Auch wenn die Datenbasis relativ problematisch ist, glaube ich, dass die Daten so grundsätzlich stimmig sind. Es entspricht der Anschauung, dass man durch 7-Pack und hybride Suchergebnisse etwas verliert. Und es ist wohl auch logisch, dass ein 7-Pack weniger Verluste bringt als sieben volle hybride Suchergebnisse.

Wenn Google also immer hybride Suchergebnisse einblenden würde, wäre das schon ein harter Traffic-Verlust (20-30% -> 4%). Aber zum Glück ist das zumindest derzeit nicht so, weil die geprüfte Branche sehr internet-inaffin ist.

In anderen Branchen (Restaurants, Hotels, …) könnte es daher viel “schlimmer” sein, also so, dass bei Portalen, die auf der ersten organischen Position stehen, wirklich nur 4% der Klicks (oder noch weniger) ankommen.

Wieder eine Website beim Link Spam erwischt: Milanoo

2. Mai 2011 | Von in Linkbuilding, SEO | 2 Kommentare

Es gibt einen interessanten Beitrag auf Search Engine Land: “Another Company Outed for Paid Links: Sequoia-Backed Milanoo“.

Ja, es wurde wieder eine Website beim Linkkauf erwischt. Interessant ist der Kommentar von Digital Due Diligence – der Website, die das Ganze aufgedeckt hat:

“Looking back at the “summer dresses” keyword [...], we couldn’t find a single inbound link that points to the page that isn’t spam or paid for.”

Das wundert nicht, weil es wohl kaum auf organischem Wege gelingen wird, einen Link auf eine Rubrikenseite mit dem Ankertext “summer dresses” zu generieren. Die Chancen, dass das ohne “externe Hilfe” passiert, sind minimal.

Deswegen finde ich diese Empörung immer etwas daneben. Verstehe mich keiner Falsch: Ich bin auch gegen Linkkauf. Aber grundsätzlich wird man es in bestimmten Branchen einfach nicht anders schaffen, wenn man für bestimmte Suchbegriffe gefunden werden möchte.

Interessant finde ich den Beitrag aber auch noch unter dem Aspekt, dass er die Frage in den Kontext des VCs steckt. Also: Wenn ein VC Geld in ein Unternehmen steckt, das einen großen Teil seines Traffics über SEO bezieht, sollte dann der VC nicht auch mal einen Blick auf die Links – und auf sonstige Taktiken – werfen?

Ja, sollten sie. Aber dafür benötigen sie eben auch Spezialwissen, das nicht jeder per se hat. Grundsätzlich wäre ein VC in jedem Fall gut beraten, mal mit der SEO-Brille auf seine Investments zu schauen.

Zum Thema Link Audits gibt’s übrigens im nächsten suchradar (kommt morgen, hoffe ich) einen langen Artikel. Da können die VCs dann ja mal schauen, wie man’s prüft…