dasistdrin
6

SEO-Potenzialanalyse

30.10.2012 | Steven Broschart

Nachdem wir im ersten Teil ein paar grundsätzliche Dinge zur Vorbereitung einer Optimierung besprochen haben, soll es heute nun um erste praktische Schritte gehen. Und einer der ersten Schritte ist eine vernünftige Bestandsaufnahme. Vor dem Biss sollte man wissen, was drin ist. Denn manchmal stößt man auf unerwartete Überraschungen …

Damit die Chancen vor einer Suchmaschinenoptimierung besser abgeschätzt und die Vorgehensweise besser geplant werden kann, ist eine Bewertung der Ist-Situation, eine Status Quo-Analyse, unbedingt erforderlich. Wir greifen dazu in diesem Artikel auf  ein paar kostenfreie Tool-Varianten zurück, sodass alle Beispiele ohne große Aufwendungen nachvollziehbar sind. Für eigene, umfangreichere Projekte kann es jedoch erforderlich werden, kostenpflichtige Versionen zu verwenden.

Ziele

Was wollen wir eigentlich feststellen? Es soll klar werden, in welchem technischen Zustand sich die Website befindet. Können alle (wichtigen) Dokumente von der Suchmaschine auch erfasst werden? Stimmen die Voraussetzungen hier nicht, können keine vernünftigen Platzierungen erzielt werden. Und das ist bei mehr Websites der Fall, als man glauben mag.

Kann der Crawler alle Inhalte der Website erreichen, stellt sich die Frage, ob sie diese auch als Mehrwert für den menschlichen Besucher erachtet. Sind für den Nutzer relevante Inhalte und Elemente überhaupt vorhanden? Und wenn ja: werden diese auch (auf Anhieb) erkannt? Wir der Nutzer auch emotional bei seinem Suchprozess unterstützt? Ist dies nicht der Fall, sorgt dies nicht nur für weniger Umsatz, sondern offenbart sich auch eine geringe Nutzerakzeptanz – die sich negativ auf das Ranking auswirken kann.

Und schließlich muss auch geklärt werden, in welchem “sozialen Umfeld” sich die Website befindet. Wie wurde sie verlinkt und wie wurde über die “gesprochen”? Gab es in der Vergangenheit möglicherweise Versuche, die Anzahl der eingehenden Links künstlich zu erhöhen?

Diese Fragen sollen im Folgenden in einer Schnellanalyse zumindest oberflächlich geklärt werden. Schließlich geht es ja lediglich um eine erste Einschätzung der Situation – und nicht mehr. Für die folgende Beschreibung beziehe ich mich auf die Domain peer-steinbrueck.de. Natürlich habe ich diese Domain nicht aus politischen, als vielmehr aus technischen Gründe ausgewählt. Es lassen sich an dieser einige schöne Aspekte beschreiben. Außerdem verwendet die Domain weniger als 500 interne Links – was sie für die Analyse mit einem der folgenden Tools qualifiziert.

Ranking & Visibility

Eine der wichtigsten Kennzahlen überhaupt dürfte das Ranking relevanter Keywords sein. Schließlich ist das Ziel der Optimierung eine Platzierungsverbesserung. Für einen schnellen Überblick bietet sich der Einsatz der kostenlosen Starter-Edition von SEOlytics an. Nach der Registrierung können die Ranking- und Sichtbarkeitsdaten einer beliebigen Domain abgerufen werden. Wir betrachten uns hier natürlich www.peer-steinbrueck.de. Zum Aufruf der Detailansicht und zur Eingrenzung des Zeitraumes kann im Menü SEO-Research > SVR gewählt werden.

Reaktive Nutzerdaten

Interessant sind in diesem Verlauf die Peaks, die die eher mäßige Sichtbarkeit zwischenzeitlich nach oben durchbrechen. Insbesondere der letzte Peak ist deshalb bemerkenswert, weil er einen Sachverhalt recht gut verdeutlicht: Den Zusammenhang zwischen Nutzerverhalten und Ranking. Betrachten wir dazu einmal das Suchvolumen von “peer” über Google Trends:

Über Google Trends lässt sich das Suchvolumen beliebiger Suchbegriffe im zeitlichen Verlauf bewerten. Wie sich unschwer erkennen lässt, hat die Suche nach Peer Steinbrück im Oktober 2012 deutlich zugenommen. Offenbar wollten die Nutzer ein paar persönliche Informationen zur Person Steinbrück finden – und klickten in den Suchergebnissen auf den entsprechenden Eintrag. Diese Verbindung zwischen Suchbegriff und erwünschter Zielseite bewertet die Suchmaschine als Trend. Das hat zur Folge, dass das Ranking, und damit auch die Sichtbarkeit temporär (so lange, wie der Trend anhält) zunimmt.

Vergleichswerte

Aber zurück zur Sichtbarkeit: Natürlich gibt es noch weitere Tools, die eine Sichtbargraphen errechnen können (bspw. Sistrix Toolbox, Searchmetrics oder XOVI). Jeder Toolanbieter hat dabei jedoch seine eigene Vorgehensweise und deckt die genaue Berechnungsformel auch nicht auf. Die Daten zur Sichtbarkeit sind deshalb nur dann sinnvoll, wenn man sie so wie eben im zeitlichen Verlauf betrachtet, und mit anderen Domains vergleichen kann. In der folgenden Abbildung wurde unsere Beispielseite mit sigmar-gabriel.de verglichen:

Über die so eingeblendete Benchmarklinie lässt sich die Präsenz von peer-steinbrueck.de deutlich leichter bewerten, da sie in Relation gesetzt werden kann. Einen Domainvergleich leitet man bei SEOlytics übrigens über den Link Domainvergleich bearbeiten, direkt unterhalb des Eingabeschlitzes ein.

Ranking

Wir sollten noch einen Blick auf wichtige Platzierungen der Website werfen. In SEOlytics lässt sich die entsprechende Tabelle nach ermittelten Positionen sortieren. Dadurch wird sofort klar: So viele gut Platzierungen erzielt die Website bisher nicht. Gerade einmal 4 Top-10-Positionen kann SEOlytics finden – darunter auch “peer”.

Spreading

Weitere wichtige Hinweise lassen sich am Verteilungsdiagramm der Platzierungen (Spreading) erkennen. Bei peer-steinbrueck.de fällt auf, dass jenseits der 4 Platzierungen auf der ersten Seite zunächst keine Suchergebnisse mehr zu finden sind. Erst auf Seite 6 gibt es vereinzelte Treffer. Ein solch ungewöhnliches Verteilungsprofil kann auf ein Indexierungsproblem hindeuten. In extremen Fällen kann man auch von einer manuellen Abstrafung der Seite (Penalty) ausgehen. In einem solchen Fall käme die Website ohne spezielle Reaktivierungsmaßnahmen nicht wieder auf die Beine.

Offpage

SEOlytics bietet auch die Möglichkeit zur Analyse der Backlinks. In der Starter-Edition geht das zwar nur eingeschränkt, wir erhalten zumindest aber ein grobes Bild der aktuellen Situation und bisheriger Linkbuilding-Aktivitäten.

Über Backlinks > Übersicht kann man sich die Anzahl neu hinzugekommener Links im zeitlichen Verlauf betrachten. Zu Spitzenzeiten kamen hier je Monat 40 neue Links hinzu, was in Bezug auf die Quantität kein Problem darstellen dürfte. Eine besonders hohe Anzahl in einem kurzen Zeitraum sollte jedoch in jedem Fall vermieden werden. Google geht dann davon aus, dass es sich nicht um “organisch” gewachsene, sondern um künstlich geschaffene, bzw. gekaufte Links handelt. Und das kann zu einer Deklassierung im Ranking führen.

Wichtiger als die Quantität ist allerdings die Qualität der Links. Links von themenaffinen Seiten, die eine hohe Reputation besitzen, sind anderen natürlich vorzuziehen. Links von fragwürdigen Seiten sind nur durch manuelle Kontrolle zu ermitteln und sollten nach Möglichkeit abgebaut werden,  denn sie könnten sich dauerhaft negativ auf das Ranking der Domain auswirken. SEOlytics bietet in der Start-Edition nur sehr beschränkte Einsicht auf die eingehenden Links. Andere Tools, wie bspw. der Open Link Graph von Sistrix zeigen etwas mehr, die vollwertige Nutzung ist aber auch hier kostenpflichtig.

Interessant ist aber in jedem Fall die Angabe zur Anzahl der eingehenden Links. Bei peer-steinbrueck.de sind es 2.762 an der Zahl. Für Google zählen allerdings nur solche Links, die auch wirklich von unabhängigen Domains stammen. Unabhängig sind solche Domains, die in unterschiedlichen C-Class-Netzen liegen. Für diese Domain zählt Open Link Graph insgesamt 73 unabhängige Hosts. Zur besseren Einschätzung ermittelt man idealerweise noch die Werte der Konkurrenz. Bei Sigmar Gabriel sind es übrigens über 47.000 eingehende Links, die sich auf 128 unabhängige Hosts verteilen.

Verfügen Sie über Zugriff auf die Google Webmaster Tools der betreffenden Domain, können Sie sich dort über Zugriffe > Links zu Ihrer Website ebenfalls und recht ausführlich über die eingehenden Links informieren. Die Webmaster Tools bieten ohnehin gute Optionen zur Status-Kontrolle, die man immer in Anspruch nehmen sollte, wenn es geht.

Domain-Historie

Ein Blick auf die Inhaberdaten bei denic.de oder whois.sc ist ohnehin obligatorisch. Fallen hier erste Unstimmigkeiten auf, sollte man der Sache nachgehen. Nicht immer kann an dieser Stelle zweifelsfrei ermittelt werden, wie lange eine Domain bereits existiert. Das Alter einer Domain kann jedoch ebenfalls entscheidend für den Optimierungverlauf sein. Ältere Domains haben es in vielen Fällen leichter.

Bei peer-steinbrueck.de stellt sich sicher nicht die Frage, möglicherweise aber bei anderen Domains: Wurde die Domain in der Vergangenheit möglicherweise in einem anderen Themenkontext verwendet? Wurde unter Domain XY, unter der heute orthopädische Strümpfe feil geboten werden, früher ein getragene Schlüpfer angeboten?

Es lohnt sich in jedem Fall mit der Vergangenheit einer Domain auseinanderzusetzen. Denn für gewöhnlich erzeugt ein Themenbruch auch ein Bruch im Ranking. Es sollte also sichergestellt werden, dass eine Domain thematisch gleichbleibend besetzt bleibt.

Für einen visuellen Blick in die Vergangenheit bietet sich archive.org an. Wird der Crawler dieses Dienstes nicht aktiv gesperrt (so wie bspw. bei fanta.de), kann eine Website über Jahre zurückverfolgt werden. Der Archivdienst wählt für den Crawlingvorgang nach eigenem Ermessen verschiedene Stichproben im Jahr.

Bei peer-steinbrueck.de lässt die etwa 10 Jahre alte Website keine unerwarteten Überraschungen erkennen.

Server

Auch serverseitig ist einiges zu beachten. Zunächst sollte überprüft werden, wo sich der Server befindet. Zwar spielt der Serverstandort nur eine untergeordnete Rolle, es wird aber empfohlen, ihn im Land des Zielpublikums zu platzieren – nicht zuletzt wegen der schnelleren Anbindung. Steht der Server am falschen Ort, sollte geprüft werden, ob ein Umzug möglich ist.

Zur Ermittlung des Serverstandortes bieten sich bspw. diverse Firefox-Plugins, wie bspw. Flagfox, an.

Die Geschwindigkeit des Servers spielt ohnehin eine entscheidende Rolle. Je schneller, desto günstiger für das Ranking. Prinzipiell sollte darauf geachtet werden, dass eine Seite nach spätestens 1,5 Sekunden angezeigt wird. Ein entsprechender Test lässt sich mit den Entwicklertools des Chrome-Browsers, oder mittels des Firebug-Plugins für den Firefox durchführen.

Leidet die Website unter einer mangelnden Performance, könnte dies bspw. daran liegen, dass die Website auf einem Server liegt, der mehrere Websites hostet, und so seine Kapazitäten aufteilen muss. Um sich einen Überblick darüber zu verschaffen, welche Websites unter der gleichen IP-Adresse noch gehostet werden, kann spyonweb.com weiterhelfen.

Der spezialisierte Crawlerdienst verrät uns nicht nur, dass peer-steinbrueck.de auf dem selben Server liegt, wie jesus-shirts.net, sondern informiert uns auch darüber, dass die Domain Google Analytics verwendet. Das Besondere daran ist, dass auch alle Domains, die den gleichen Trackingcode verwenden (also administrativ zusammengehören) schonungslos aufgedeckt und genannt werden. In diesem Beispiel lässt sich über spyonweb.com allerdings nicht erkennen, ob noch weitere Domains existieren, die auf die gleichen Inhalte verweisen (bspw. www.peersteinbrueck.de, also ohne Bindestrich).

Onpage

Ein kurzer Blick auf den HTML-Code darf nicht fehlen. Für eine schnelle Übersicht bieten sich die folgenden Tools an:

Validierung

Zunächst sollte der Code auf Validität geprüft werden. Ist wirklich als korrekt ausgezeichnet, oder verstecken sich irgendwo noch gravierende Fehler? Das W3C bietet mit dem HTML-Validator dafür eine praktische Hilfe. Hier empfiehlt sich ein paar exemplarische Seiten auszuwählen und zu prüfen. Häufig lassen sich auf diese Weise systematische Fehler aufspüren und eliminieren.

Der W3C-Validator ist sehr kleinlich und bemerkt auch solche Defizite, die keine unmittelbaren Auswirkungen auf das Ranking haben. In jedem Fall sollte man aber darauf achten, das semantische Elemente (insbesondere der Seitentitel, Überschriften und Hervorhebungen) und Links keine Fehler aufweisen oder nicht-valide verschachtelt wurden. Der Suchmaschinencrawler darf keine Schwierigkeiten bei der eindeutigen Interpretation dieser Elemente haben.

Der eigene Crawler

Spezialisierte Crawler-Software kann helfen, schnell grundsätzliche Defizite an der Seitenstruktur aufzudecken. Als kostenfreie Alternative bietet sich entweder Xenu, oder das besser auf die SEO-Bedürfnisse zugeschnittene Screaming Frog an. Mit der kostenfreien Variante lassen sich bis zu 500 URLs analysieren. Das ist zur Analyse von peer-steinbrueck.de ausreichend, weshalb wir das Programm im folgenden verwenden.

Nach der Eingabe der Domain und dem vollständigen Crawler-Durchlauf können über den Tabs Responses und dem Filterdropdown über Client Error (4xx) alle fehlerhaften Seiten (Dokumente, die nicht zu erreichen waren) ausgegeben werden. Bei peer-steinbrueck.de hat man sauber gearbeitet. Es konnten keine 4xx-Fehler gefunden werden. Dafür gab es ein paar wenige Adressen, die gar keine Server-Response lieferten.

Außerdem fällt im Tab URI auf, dass peer-steinbrueck.de nicht auf selbstsprechende URLs setzt, sondern Parameter verwendet. Außerdem wurde über die Filteroption NON ASCII Characters einige URLs gefunden, die nicht gültige Sonderzeichen verwenden.

In jedem Fall sollte die Informationsarchitektur auf fehlende und doppelte (semantische) Elemente, aber auch auf doppelte Seiten geprüft werden. Ganz klar: Je mehr Fehler gefunden und umrissen werden, die leicht behoben werden können, desto größer das Potenzial auf gute Platzierungen. Allerdings sollte man nicht vergessen, dass es sich hier um eine erste Bestandsaufnahme und nicht um eine Detailanalyse handelt.

Noch etwas: Nach dem Crawlingvorgang ist der Umfang der Website besser abzuschätzen. In jedem Fall sollte überprüft werden, ob sich dieser Umfang mit der Anzahl der bereits indexierten Dokumente deckt.

Die Anzahl der bei Google indexierten Dokumente lässt sich mit dem site-Operator abfragen: site:peer-steinbrueck.de. Aktuell werden hier 105 Dokumente angezeigt. Leider bietet Screaming Frog keine direkte Information zur Anzahl gefundener HTML-Seiten und PDF-Dokumente in einer Übersicht. Xenu ist das auskunffreudiger und ermittelt 144 HTML-, und 13 PDF-Dokumente. Mit insgesamt 157 Dokumenten besteht eine Differenz von über 50 Dokumenten, die nicht indexiert wurden. Eine solche Differenz kann auf Indexierungsprobleme hindeuten. In jedem Fall sollte man diesem Sachverhalt zu einem späteren Zeitpunkt nachgehen.

Verwendetes CMS

Damit sollten wir bereits ein vernünftiges Bild der Situation gewonnen haben. Die Fakten sprechen soweit für sich. Es gibt aber ein paar Dinge, die sich nicht immer direkt erkennen lassen, aber den Erfolg einer SEO entscheidend beeinflussen können. Bspw. kann nicht jedes Content Management System so konfiguriert werden, wie es im Sinne einer Optimierung zu empfehlen wäre (ok, manchmal liegt es auch an den Administratoren …). Folgende Aspekte sollten in jedem Fall geprüft werden:

  • Können selbstsprechende Pfade eingerichtet werden?
  • Sind die Pfade stabil und nicht bei jedem Aufruf anders (bspw. bei integrierten Session-IDs) ?
  • Verfügt das CMS über eine vernünftige Canonical-Verwaltung (mit der doppelte Seiten als solche ausgezeichnet werden können) ?
  • Kann sichergestellt werden, dass der Server beim Aufruf einer nicht existierenden Seite eine 404-Response zurückliefert?
  • Verfügt der Server über ein Cachingsystem oder kann eines eingerichtet werden, um die Auslieferung zu beschleunigen, wenn erforderlich?
  • Kann das HTML-Template frei definiert werden und – wenn erforderlich – einzelne Komponenten für jede Seite individualisiert werden?

Die Domain peer-steinbrueck.de verwendet WordPress, welches alle der genannten Anforderungen erfüllt – auch wenn sie in diesem Fall nicht alle umgesetzt wurden.

Fazit

peer-steinbrueck.de zeigt ein paar deutliche Defizite – sowohl Onpage, als auch Offpage. Wir sind mit unserer ersten Bewertung allerdings noch nicht fertig. Uns fehlen noch Informationen zur Nutzerakzeptanz. Diese wird das Thema des nächsten Teils der Serie. Bis dann.

Tags: ,


Wer schreibt hier?

Steven Broschart ist seit 9 Jahren als Senior Consultant beim Online-Marketing-Spezialisten cyberpromote in München tätig. Dort verantwortet er als Teamleiter die Bereiche SEO und UX. Neben der Beratung von Key-Accounts tritt er regelmäßig als Autor diverser Fachpublikationen in Erscheinung.



6 Reaktionen auf SEO-Potenzialanalyse

  1. Gretus sagt:

    Hallo,

    super Zusammenfassung, gleich mal getwittert ;-)

    Grüße

    Gretus

  2. Steven Broschart sagt:

    Super :-) Danke!

  3. Steven Broschart sagt:

    Oh, was ist da los? Host Europe vermeldet: Die Website peer-steinbrueck.de “ist temporär nicht erreichbar” und auch “befindet sich im Aufbau” …

  4. Pingback: Top 10 der Woche 44/12 › News

  5. Pingback: SEO Auslese November 2012 | Online Marketing Agentur (Projecter GmbH)

  6. Daniel sagt:

    Toller Artikel! Habe mich gleich mal an die Code ausbesserung gemacht. Danke dafür!

Hinterlasse eine Antwort

Back to Top ↑