Bloofusion
Logo Internetkapitäne Logo Internetkapitäne

Majestic-SEO: Neue Linkdatenbank

27. Januar 2009 | Von in SEO | Ein Kommentar

Mit Majestic-SEO ist jetzt eine neue Datenbank für Backlinks verfügbar. Man kann also detaillierte Statistiken darüber bekommen, wer auf wen verlinkt. Fürs suchradar sieht die Übersicht dann z.B. so aus:

majestic-overview

Während man Daten für die eigene Domain noch kostenlos abrufen kann, muss man – natürlich – für Daten anderer Websites bezahlen. Die Preisgestaltung richtet sich jeweils nach der Domain und wird über Credits abgerechnet. Ein Credit entspricht dabei einem britischen Pfund (bis zu 30% Rabatt, je nach Umfang).

Je nach Website muss man da z.T. schon tief in die Tasche greifen:

majestic-pricing

Also, ich finde die Daten insgesamt ganz interessant. Vor allem ist es schön, eine weitere Alternative zur Yahoo-Datenbank zu haben. Man kann immer alle Daten auch als CSV runterladen, um diese weiterzuverarbeiten. Nur eine API fehlt (noch?).

Wer mehr über Majestic SEO erfahren möchte, sei auf diesen Artikel verwiesen:
> Majestic SEO – Interview of Alex Chudnovsky

Preferred Sites: Google erweitert personalisierte Suche

20. Januar 2009 | Von in SEO | Keine Kommentare

Das GoogleWatchBlog berichtet über eine neue Funktion namens Preferred Sites. Über diese Funktion kann man Domains definieren, die dann in den Suchergebnissen per se höher bewertet werden. Wer also spiegel.de und welt.de einträgt, sollte Ergebnisse dieser Domains bevorzugt in den Suchergebnissen sehen.

Wie immer gilt hier Entwarnung: Nein, SEO ist noch nicht tot. Diese Einstellungen gelten nur für das eigene Konto und beeinflussen die Suchergebnisse anderer Google-Nutzer nicht.

Google räumt Suchergebnissen mehr Platz ein

16. Januar 2009 | Von in SEO | 2 Kommentare

Bei Google besteht ein Suchergebnis im Wesentlichen aus drei Teilen: Die erste Zeile enthält die Überschrift, die letzte Zeile die URL und dazwischen steht ein Auszug aus dem Seite, das sog. Snippet. Das Snippet wird entweder der Meta-Beschreibung oder dem Inhalt der Seite entnommen und war bisher immer ein bis zwei Zeilen lang. Mit dieser Tradition scheint man nun zu brechen: Bei längeren Suchanfragen wurden erstmals auch längere Beschreibungen gesichtet, welche bis zu vier Zeilen einnehmen können.

Anscheinend versucht Google jetzt konsequenter, die Teile der Suchanfrage auch im Snippet widerzuspiegeln (sowas hatten wir ja neulich auch bei den Überschriften). Der Vorteil für den Benutzer ist, dass er jetzt leichter sieht, ob ein Suchergebnis auch das ist, was er gesucht hat, oder ob es nur zufällig zu seiner Eingabe passt. Ich habe das mal mit einer kürzeren Suchanfrage getestet, indem ich nach Begriffen gesucht habe, die auf der Bloofusion-Website weit auseinander stehen. Und tatsächlich, so sieht’s aus:

snippet-beispiel

Ebenfalls funktioniert es mit einem langen Text, der exakt auf einer Seite vorkommt, siehe dieses Beispiel.

Bleibt die Frage, welche praktischen Auswirkungen das für die Suchmaschinenoptimierung mit sich bringt. Meiner Einschätzung nach: Gar keine. Denn man wird wohl keine Seite so bauen können, dass sie für einen wichtigen Suchbegriff gut rankt und gleichzeitig die Bedingungen für ein größeres Snippet erfüllt. Auch wissen wir natürlich nicht, ob Google die Sache morgen nicht schon wieder rückgängig macht.

(gefunden via Blogtopf.de)

Neuer Google Sitemap Generator

15. Januar 2009 | Von in SEO | 4 Kommentare

Google hat einen neuen Sitemap Generator veröffentlicht welcher direkt auf einem Webserver installiert wird und dadurch ganz neue Möglichkeiten bietet. Bisher beruhten Tools für die Erstellung von Sitemaps darauf, eine Website zu crawlen und die gefundenen Files in eine Sitemap zu stecken. Googles Sitemap Generator dagegen betrachtet den Traffic des Servers, wertet Logfiles aus und erfasst die Dateien auf dem Webserver selbst. Dadurch können nicht nur URLs gefunden werden, die einem Crawler eventuell verborgen bleiben würden, auch lassen sich wichtige URLs von weniger wichtigen unterscheiden und Aktualisierungen werden sofort erfasst.

Vor allem das Auffinden von URLs, die ein Crawler nur schwer oder gar nicht findet, hat natürlich einen großen Vorteil. Dadurch wäre es z.B. möglich, Inhalte, die nur über ein Formular zu finden sind, dennoch in die Sitemap aufzunehmen. Ein Verlag, an dessen Heftarchiv man nur kommt, wenn man ein Suchformular ausfüllt, hatte bisher wenig Chancen, dieses Archiv über Suchmaschinen zu finden. Mit dem Sitemap Generator könnte er dieses Archiv aber problemlos in die Sitemap aufnehmen, diese an Google schicken und die Inhalte so indexiert bekommen.

Ersetzt der Sitemap Generator deshalb suchmaschinenfreundliche Strukturen? Nicht ganz, denn Suchmaschinen, allen voran Google, schließen aus der internen Verlinkung einer Website, wie wichtig bestimmte Inhalte sind. Zwar stehen Gewichtungen auch in der Sitemap, zu dieser hat Google aber wenig Vertrauen. Denn in die Sitemap kann man erstmal alles schreiben, unabhängig davon, welches Programm diese erstellt hat. Man bekommt also über Sitemaps weitere Inhalte in den Index, hat allerdings schlechte Chancen, damit auch gut zu ranken.

Ganz so schnell verbreiten dürfte sich der Sitemap Generator nicht: Er ist als Server-Plugin für Apache oder IIS konzipiert. Wer nicht selber einen Webserver verwaltet, kann das Tool also erstmal nicht einsetzen. Google setzt aber darauf, dass der eine oder andere Webhoster das Plugin installiert und es seinen Kunden zur Verfügung stellt.

Leichtfertig einsetzen sollte man das Tool allerdings nicht. Denn auch wenn die Open Source-Software außer den Sitemaps keine weiteren Informationen an Suchmaschinen sendet, kann sie ohne richtige Konfiguration ein Datenschutzrisiko darstellen, etwa wenn übermittelte URLs Benutzerinformationen oder gar Passwörter enthalten.

SUMAXX Q IV/2008 ist da….

14. Januar 2009 | Von in SEO | Keine Kommentare

Unter www.sumaxx.de kann man jetzt auch den aktuellen SUMAXX fürs vierte Quartal runterladen. Dabei sind mir vor allem die folgenden Sachen aufgefallen:

  1. GuteFrage.net auf Platz 6 im Themengebiet “Medizin & Gesundheit” – schon sehr beeindruckend, dass ein allgemeines Portal ohne echten fachlichen Content etablierte Größen wie Gesundheitpro.de zur Seite schieben kann.
  2. Misterinfo.de auf Platz 4 im Themengebiet “Reisen”, dito bei “Finanzdienstleistungen” – auch beeindruckend. Viel Content gibt’s ja definitiv auf Misterinfo. Das alles mit viel Linkpower garniert scheint gut zu funktionieren – solange es willige Contentschreiber gibt.
  3. Ebay.de zurück in der Top 10 bei “Elektronik” – ohne Kommentar.

Ist die Bounce-Rate ein Signal für Suchmaschinen?

13. Januar 2009 | Von in SEO | 8 Kommentare

Ich bin am Wochenende über zwei interessante Artikel gestolpert:

Das ist alles mal wieder Kaffeesatzlesen, weil es zwar eine “Studie” gibt, aber die wirklich nicht sehr aussagekräftig ist. Die Frage, ob Google die Bounce-Rate einer Website als Kriterium nimmt, ist also derzeit nicht zu beantworten.

Warum sollte Google das überhaupt machen?
Nun ja, wenn Google weiß, dass 80% der Besucher, die eine Website betreten, diese sofort wieder verlassen, könnte das ein sehr gutes Zeichen sein, dass mit der Website etwas nicht in Ordnung ist (Spam, anstößige Inhalte – da gibt’s ja viele Möglichkeit).

Wie könnte Google die Bounce-Rate messen?
Es gibt viele Möglichkeiten, z.B. über die Google Toolbar oder Google Analytics, aber diese Daten stehen nicht flächendeckend zur Verfügung. Google Analytics hat eben nicht jede Website und die Toolbar hat auch nicht jeder.

Was Google schon messen kann sind die Klicks auf die Suchergebnisse. Wenn ein Google-Nutzer also auf drei Suchergebnisse klickt, könnte Google messen, wie viel Zeit zwischen dem ersten/zweiten und dem zweiten/dritten Klick vergangen sind und diese Zeiten dem ersten und zweiten Ergebnis zuordnen.

Helfen diese Daten?
Da werden sicherlich jede Menge Fehler drin sein, weil ja auch mal jemand zwischendurch zum Kaffeekochen geht und erst dann weiterklickt, aber ich denke, dass man das mit den Mitteln der Mathematik wohl glattbügeln könnte.

Ich könnte mir allerdings vorstellen, dass die messbare Verweildauer natürlich stark von den Suchbegriffen abhängt.

Auch glaube ich, dass das Kriterium nicht fair wäre, weil vielleicht ein Blog (nur ein Beitrag zum gesuchten Thema) schlecht bewertet und dafür ein Portal (viele mäßige Beiträge) hoch bewertet würde.

Die Verweildauer könnte also bestenfalls ein Signal unter vielen sein. Vielleicht könnte man das auch manuell weiterverwenden: Wenn das Google-System merkt, dass eine Website eine sehr hohe Bounce-Rate hat, muss eben ein Quality Rater drüberschauen und das Ganze überprüfen.

Also?
Aktuell sehe ich keinen Anlass, sich bei einer schlechten Bounce-Rate Gedanken zu machen. Ich glaube aber schon, dass Google derartige Faktoren in Zukunft nutzen wird.

Vor allem könnte das Ganze ja ein Anlass sein, sich mit der Usability der eigenen Website auseinanderzusetzen. Eine schlechte Bounce-Rate ist ja nicht nur in Bezug auf SEO ein Problem.

Yahoo-Linkdaten unter der Lupe

9. Januar 2009 | Von in SEO | Keine Kommentare

Viele SEOs werden sicherlich die YahooAPI nutzen, um auf Verlinkungsdaten zurückzugreifen. Das machen wir auch mit einigen Tools. Nicht immer sind die Resultate aber in Ordnung, weil Yahoo auch für Suchmaschinen gesperrte Seiten und gesperrte Links anzeigt. Wer also bei Yahoo nach “link:http://www.meinesite.de/ -site:www.meinesite.de” sucht, wird auch Seiten erhalten, die keinen validen Link auf die eigene Website erhalten.

Wie verlässlich die Daten von Yahoo sind, wollte ich immer schon mal wissen. Beim letzten Update unserer Software habe ich das dann mal ausgewertet. Die konkreten Zahlen sehen wie folgt aus:

  • 21,9% der Links konnten auf der jeweiligen Seiten nicht gefunden werden, d.h. dass sie entweder wirklich nicht existierten oder als nofollow markiert waren.
  • 1,1% der Links befanden sich auf Seiten, die über einen Robots-Meta-Tag (noindex oder nofollow) verfügten. Streng genommen würde hier ja nur der nofollow interessieren, aber ich bin auch ein Vertreter der These, dass eine noindex-Seite nicht wirklich viel Link-Power abgeben kann.
  • 5,6% der Seiten konnten nicht abgerufen werden (also 404, Server down oder Domain nicht mehr existent).
  • 71,4% der Links waren OK (Seite konnte geladen werden, kein noindex/nofollow als Robots-Meta-Tag, Link konnte gefunden werden und war nicht als nofollow markiert).

Pi mal Daumen bleiben von vier gelieferten Links also nur drei übrig. Das Überprüfen der Seiten macht also durchaus Sinn…


|