SEO How-To (Teil 1): Warum rankt eine bestimmte Seite nicht?

Das erwartet euch in diesem Artikel

  • Was könnt ihr tun, wenn eine Seite nicht rankt?
  • Mit welchen Tools könnt ihr die Fehlerquelle eingrenzen?
  • Wie könnt ihr die Fehler beheben?

Manchmal stellt sich in der Praxis die Frage, warum eine bestimmte Seite für einen bestimmten Suchbegriff nicht gut in Google gefunden wird. Perfekt wird man diese Frage niemals beantworten können, denn Google kennt mehr als 200 Ranking-Faktoren, in deren konkrete Gewichtung es keinen Einblick gibt. Über die folgenden Diagnoseschritte kann man aber oft eine Antwort und auch eine Therapie finden.

Index

Zunächst sollte geprüft werden, ob sich die Seite korrekt im Google-Index befindet. Dazu sollte zunächst die Suchanfrage „info:URL“ (ohne Leerzeichen vor und hinter dem Doppelpunkt) an Google gestellt werden.

Wenn sich die Seite nicht im Index befindet, erhält man ein leeres Suchergebnis – ein klares Indiz dafür, dass es hier ein grundlegendes Problem gibt. Das kann darin liegen, dass die Seite per Robots-Meta-Tag „noindex“ für Suchmaschinen gesperrt ist. Hierzu schaut man einfach in den HTML-Code und sucht nach „robots“ oder „noindex“.

Es kann auch sein, dass die Seite per robots.txt für das Crawling gesperrt ist. In manchen Fällen legt Google dann zwar trotzdem einen Leereintrag im Index an (siehe Abbildung 1), aber in der Regel passiert das nicht. Wer prüfen will, ob eine bestimmte Seite für den Googlebot gesperrt ist, kann in der Google Search Console auf die Funktion „robots.txt Tester“ zurückgreifen.

Screenshot: Gesperrte Seite

Abb. 1: Auch per robots.txt gesperrte Seiten können im Index erscheinen – wie in diesem Beispiel.

Wenn die „info:URL“-Anfrage ein Ergebnis zurückliefert, muss man aber noch etwas genauer hinschauen. Es könnte nämlich sein, dass im Suchergebnis eine andere URL erscheint als die, die man eigentlich angefragt hat. Wenn das passiert, liegt das in der Regel am Canonical Tag in der Seite, welches auf die andere URL zeigt.

Falls man aber genau die angefragte URL zurückbekommt, lohnt sich noch ein Blick in den Cache (siehe Abbildung 2), um zu prüfen, ob Google wirklich den aktuellen Stand der Seite kennt. In einigen Fällen kann sich das Crawling verzögern. Es kann in ganz seltenen Fällen aber aufgrund technischer Probleme auch vorkommen, dass Google vielleicht eine fehlerhafte Version der Seite erhalten hat. Wie gesagt: Das passiert extrem selten, kann aber durch den Blick in den Cache ausgeschlossen werden.

Screenshot: Cache

Abb. 2: Ein kurzer Blick in den Cache kann schnell klären, ob Google die Inhalte auch richtig abgerufen hat.

Google Search Console

Die weiteren Diagnoseschritte können in der Google Search Console vollzogen werden. Zunächst kann dort im Report „Manuelle Maßnahmen“ geprüft werden, ob eine Abstrafung durch Google vorliegt. Auch das ist extrem selten und sollte auch per E-Mail an den Website-Betreiber gemeldet werden, aber nur zur Sicherheit kann man dort ja mal nachschauen – vor allem natürlich, wenn man sich einer gewissen Schuld bewusst ist.

Ebenfalls sollte man die Funktion „Abruf wie durch Googlebot“ nutzen, um die Seite abholen und rendern zu lassen. Rendern bedeutet hier, dass nicht nur die HTML-Seite heruntergeladen wird; Google versucht vielmehr, die Seite komplett darzustellen, indem alle Ressourcen (JavaScript, Bilder, Fonts …) heruntergeladen werden. Hier sollte geprüft werden, ob die Seite korrekt dargestellt wird und ob Google Ressourcen moniert, auf die nicht zugegriffen werden kann.

Danach sollte man in die Suchanalyse wechseln, da man dort prüfen kann, ob die Seite wirklich keinen organischen Traffic erhält. Dazu schränkt man die Seiten auf die exakte Schreibweise der URL ein (siehe Abbildung 3) und sieht dann schnell, ob die Seite wirklich nicht gefunden wird. Häufig sieht man hier schon, dass die Seite durchaus gute Rankings generiert – wenn auch nicht immer unbedingt für den gewünschten Suchbegriff. Das kann aber nochmals bestätigen, dass Google die Seite perfekt anzeigt und auch nicht grundsätzlich ablehnt.

Screenshot: Suchanalyse

Abb. 3: In der Suchanalyse kann man schnell überprüfen, ob eine bestimmte Seite wirklich gar nicht gefunden wird – oder nur für andere Suchbegriffe.

In Google suchen

Weitere Diagnoseschritte bieten sich dann wieder in der Google-Suche an. Wer die Suchanfrage „Suchbegriff site:Domain.de“ stellt, schränkt die Suche für „Suchbegriff“ auf die eigene Domain ein. Die gewünschte Seite sollte hier klar an erster Stelle stehen. Falls das nicht so ist, ist das ein klares Anzeichen für interne Konkurrenz: Mehrere Seiten kommen für die Suche infrage, sodass Google eine Seite auswählen muss. In der Regel probiert Google die verschiedenen Seiten durch und entscheidet sich irgendwann für eine der Seiten. Wer ein solches Problem hat, sollte darüber nachdenken, die Seiten evtl. zusammenzulegen oder durch Canonical Tags die Varianten zusammenzuziehen.

Auch kann man aus dem Text der Seite mal einen Satz herauskopieren und – mit Anführungsstrichen umschlossen – in Google als Phrase suchen lassen. Es sollte genau eine Seite erscheinen – und zwar die gewünschte URL. Es kann aber auch passieren, dass man dann entdeckt, dass es diesen Text auch auf anderen Seiten gibt. Das kann auf der eigenen Domain, aber auch auf fremden Domains passieren. In beiden Fällen ist das nicht sonderlich gut, da es sich um Duplicate Content handelt. Der ist zwar nicht an sich schädlich, aber Google wird Dubletten in den Suchergebnissen oft entfernen, sodass eben nur eine der Dubletten faktisch angezeigt wird.

Wenn ein solches Problem vorliegt, sollte also nach einer Lösung gesucht werden. Canonical Tags können auch hier helfen, das Dubletten-Problem zu reparieren. Evtl. hat aber auch jemand mit bösen Absichten Teile meiner Website kopiert. Da hilft dann in der Regel der Weg zum Anwalt oder die Kontaktaufnahme mit Google, um unrechtmäßige Kopien zu entfernen.

Interne Verlinkung

Wenn eine Seite schlechte Rankings generiert, kann das auch an der schlechten internen Verlinkung liegen. Diese ist relativ schwer zu prüfen, weil es keine einfache Metrik dafür gab. Kostenpflichtige Tools können hier weiterhelfen. Wer z. B. den Screaming Frog SEO Spider nutzt, kann über „Level“ erfahren, wie viele Klicks die Seite von der Startseite entfernt ist („Klicktiefe“). Außerdem sieht man dort auch, wie viele eingehende Links eine bestimmte Seite hat (siehe Abbildung 4).

Wenn die Klicktiefe zu hoch ist, sollte man entsprechende Gegenmaßnahmen treffen und z. B. die Seite über die Startseite verlinken lassen.

Screenshot: Screaming Frog

Abb. 4: Im Crawling-Tool Screaming Frog SEO Spider können auch Daten zur internen Verlinkung abgerufen werden.

Externe Verlinkung

Es kann natürlich auch sein, dass die eigene Seite schlecht oder gar nicht extern verlinkt ist, während die anderen Wettbewerbs-Seiten gute Backlinks haben. In der Regel ist das eher kein Problem, aber prüfen sollte man es trotzdem. Faktisch eignen sich dafür nur kostenpflichtige Linkdatenbanken wie Majestic oder Ahrefs, um die Wettbewerber und die eigene Seite zu analysieren.

Die Lösung für ein eventuelles Problem ist dann so klar wie schwierig: Es müssen externe Links aufgebaut werden, was aufwendig ist und vor allem nicht schnell umgesetzt werden kann.

Es geht natürlich nicht nur um die externen Links, die direkt auf die jeweilige Seite zeigen. Vor allem die gesamte Verlinkung der Wettbewerber-Domains ist einen Blick wert. Auch hier können Datenbanken wie Majestic helfen, indem sie die eigene Website mit dem Bewerber-Umfeld vergleichen (siehe Abbildung 5). Dabei muss man allerdings sehr vorsichtig sein, da diese Tools auf eine andere Datenbasis als Google zugreifen.

Screenshot: Majestic

Abb. 5: Über Linkdatenbanken wie Majestic können schnell Informationen zur Verlinkung der Wettbewerber erstellt werden.

Der Inhalt der Seite

Während viele der vorgenannten Diagnoseschritte eher technischer Natur sind, darf das Wichtigste natürlich nicht vergessen werden: der Content der Seite selbst. Hier beginnt die Diagnose am besten bei den Wettbewerbern: Wie sehen die Seiten aus, die gute Rankings erreichen?

Sehr häufig findet man dann im Vergleich auch schon mögliche Gründe für das schlechte Ranking:

  • Umfang der Inhalte (Anzahl der Wörter, inhaltliche Vollständigkeit/Tiefe …)
  • Textliche Qualität der Inhalte (Tippfehler, Wortschatz …)
  • Übersichtlichkeit, Struktur (Zwischenüberschriften, Fetten von Textsegmenten …)
  • Relevante Links im Content
  • Bilder/Videos (falls für das Thema sinnvoll)

Vieles davon wird unter dem Begriff „Search Intent“ zusammengefasst: Passt der Inhalt optimal zur Nutzererwartung? Hier muss man seine Inhalte wirklich kritisch prüfen und dann falls möglich Anpassungen vornehmen.

Fazit

Eine Seite, die für ein bestimmtes Keyword nicht rankt – das kann viele verschiedene Gründe haben. Ob Indexierung, Crawling, Verlinkung oder Inhalt: Die Diagnose ist nicht immer einfach und braucht auch manchmal einige Erfahrung, um die gelieferten Daten zu interpretieren. Mithilfe dieser „Checkliste“ sollte es aber möglich sein, die wichtigsten Ursachen zu erkennen und dann auch eine Lösung zu finden.

Über den Autor

Markus Hövener

Gastautor
Ich bin Gründer und Head of SEO der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Außerdem bin ich Buchautor, Autor vieler Artikel und Studien rund um SEO und SEA sowie Chefredakteur des Magazins suchradar.
Kommentare