Der perfekte SEO-Relaunch Teil 6: Die wichtigsten Fehler, die es zu vermeiden gilt

Das erwartet euch in diesem Artikel

  • Was sind die häufigsten Fehler beim Relaunch?
  • Wie könnt ihr sie aufdecken?
  • Welche Tools helfen euch dabei?

Ein Relaunch ist nicht nur ein Aufbruch, sondern auch ein potenziell gefährlicher Einschnitt. Wer hier Fehler macht, kann der eigenen Website durchaus Schaden zufügen. Wie und mit welchen Tools kann man das vermeiden?

In den letzten fünf Teilen dieser Serie ging es um die wichtigsten Schritte bei einem Relaunch-Projekt – vom Anfang bis zum Go-Live und noch darüber hinaus. Dieser letzte Beitrag soll nun den Blick auf die schlimmsten Fehler richten, die nachhaltigen Schaden verursachen können – und deswegen unbedingt vermieden werden sollten.

Teure Fehler

Es gibt im Rahmen eines Relaunches sicherlich Fehler bei der Umsetzung, die auch später noch korrigiert werden können. Fehlerhafte Seitentitel oder auch fehlendes Markup können jederzeit ergänzt werden, ohne dass es bei den Seiten zu dauerhaften Schäden kommt. Wichtig ist es deshalb, darüber nachzudenken, welche Fehler sich nachhaltig negativ auswirken können. Dazu zählen primär die folgenden vier Fehler:

301-Umleitungen

Am häufigsten werden im Rahmen eines Relaunches wohl die nötigen 301-Umleitungen fehlerhaft oder lückenhaft implementiert. Wie schon in Teil 2 dieser Artikel-Reihe beschrieben, ist es deshalb wichtig, Umleitungen gewissenhaft zu erstellen und dann auch zu prüfen.

Wer 301-Umleitungen nicht manuell Seite für Seite erstellen möchte, muss auf die Hilfe von Tools zurückgreifen. In vielen Fällen können hier Content-Management- oder Shop-Systeme weiterhelfen. Wenn das nicht möglich ist, kann man auch mittlerweile auf einige interessante kostenpflichtige Spezial-Tools zurückgreifen. Sowohl RelaunchApp (siehe Abbildung 1) als auch searchVIU (siehe Abbildung 2) gehen beide den Weg, die bestehende und die Stage-Website zu crawlen und dann die Inhalte miteinander abzugleichen. Dazu müssen bei beiden SaaS-Tools zunächst Einstellungen vorgenommen werden, die primär das Crawling betreffen. Es ist aber auch möglich, Daten z. B. von Google Analytics, der Search Console und externen Tools wie SISTRIX zu importieren.

Danach versuchen die Tools, die alten und neuen Inhalte zu vergleichen, was in der Praxis oft erstaunlich gut funktioniert. Die so ermittelten Umleitungen können dann entweder direkt übernommen oder manuell angepasst werden. Es ist wohl klar, dass ein solcher Prozess bei Tausenden Seiten auch nicht in Minuten erfolgen kann – aber eben doch viel schneller als das manuelle Erstellen von Umleitungen in Excel.

Screenshot: Passende Weiterleitungen

Abb.  1: RelaunchApp liefert möglichst passende Weiterleitungen.

Screenshot: Prüfungen der Umleitungen

Abb. 2: searchVIU bietet vielfältige Überprüfungen der Umleitungen an.

Versehentliches Sperren von Seiten

Auch das versehentliche Sperren von Inhalten – manchmal auch der gesamten Website – ist nicht wirklich selten. Besonders „beliebt“ ist dabei der Fehler, dass die Stage-Website per robots.txt oder Robots-Meta-Tag für Suchmaschinen gesperrt wird und diese Sperre dann beim Go-Live der Website beibehalten wird.

Prüfen kann man das am besten, indem direkt nach dem Go-Live die neue Website mit einem Tool wie dem Screaming Frog SEO Spider gecrawlt wird. Wenn man die entsprechenden Optionen („Ignore robots.txt“ ausschalten, „Respect noindex“ und „Respect canonical“ einschalten) auswählt, sollte man beim Endergebnis die Seiten sehen, die es dann später auch in den Google-Index schaffen. Falls beim Crawl alle oder teilweise relevante Seiten fehlen, muss man dem Problem auf den Grund gehen.

Fehlende Inhalte

301-Umleitungen sind extrem wichtig. Diese funktionieren aber nur dann, wenn alte und neue Seite hinsichtlich der Inhalte ziemlich deckungsgleich sind. Ansonsten wird die Umleitung gerne als „Soft 404“ gewertet, was dann dazu führt, dass die Rankings nicht von der alten auf die neue Seite übertragen werden.

Es ist also extrem wichtig, sich bei der Erstellung der neuen Website-Struktur genau zu überlegen, welche Inhalte auf der alten Site Traffic-relevant sind und deswegen auch in die neue Website übernommen werden müssen. Nur dann kann auch die Umleitung zum gewünschten Erfolg führen.

Fehlerhafte Behandlung von Crawlern

Einige Websites nutzen z. B. eine sogenannte Geo-IP-Umleitung: Ein Nutzer aus den Niederlanden wird dann z. B. direkt auf die Unterseite /nl/ weitergeleitet, sodass er die deutschen Inhalte gar nicht erst sieht. Das mag für den Nutzer sinnvoll sein, aber auch Google ist in gewisser Weise ein Nutzer: Der Crawler (Googlebot) greift ebenfalls auf die Website zu – in der Regel mit einer IP, die den USA zugeordnet wird. Wenn man nun nur anhand der IP-Adresse umleitet, kann es passieren, dass Google so nur die Inhalte, die für die USA gedacht sind, abrufen kann.

GEO-IP-Umleitungen sind also immer mit Vorsicht zu genießen. Der einzig sichere Weg, fehlerhafte Umleitungen zu erkennen, besteht in der Nutzung der Google Search Console. Dort kann man über die Funktion „Abruf wie durch Google“ erkennen, wie der Googlebot handelt. Am besten sollte das Ergebnis dann nicht wie in Abbildung 3 aussehen, denn dort wird der Google-Crawler pauschal immer auf die englischsprachigen Inhalte weitergeleitet.

Screenshot: Fehler in Search Console

Abb. 3: Google wird immer auf die englischsprachigen Inhalte umgeleitet – ein Fehler, den man nur mit der Search Console aufdecken kann.

Weitere Fehler

Neben diesen „teuren“ Fehlern, die sich nachhaltig auf die organische Sichtbarkeit auswirken können, gibt es aber noch viele andere, die gerne und oft gemacht werden.

So zeigt sich in der Praxis, dass häufig auch externe Daten nicht korrekt bedacht werden. Dazu zählen vor allem XML-Sitemaps, News-Sitemaps oder auch Product-Feeds für das Google Merchant Center. Wenn man z. B. die Website von HTTP auf HTTPS umstellt, passiert es nicht selten, dass in der XML-Sitemap immer noch HTTP-URLs zu finden sind. Unternehmen sollten also im Relaunch auch über alle Daten nachdenken, die von anderen Tools gebraucht werden.

Auch das Markup, das mittlerweile auf vielen Websites Daten strukturiert für Suchmaschinen abbildet, ist häufig fehlerhaft. Entweder werden wichtige Markups gar nicht implementiert oder Markup wird fehlerhaft in Seiten eingebaut – in einigen Fällen sogar so, dass es als „Review Spam“ gilt und damit gegen Google-Richtlinien verstößt. Markup sollte also in jedem Fall geprüft werden. Das Test-Tool für strukturierte Daten gilt hier als das Tool der Wahl.

Die große Relaunch-Checkliste

Wer einen Relaunch strukturiert angehen möchte, kann sich bei Bloofusion eine ca. 60-seitige Checkliste herunterladen, die vom Anfang (Konzeption der Website) über den Go-Live bis zur Nachsorge alle wichtigen Aspekte behandelt:

Fazit

Organische Rankings sind immer mehr zum schützenswerten „Asset“ geworden. Genau deshalb sollten im Rahmen eines Relaunches alle Aspekte optimal geprüft werden, damit eben keine Fehler passieren, die dann wichtige Reichweite kosten können. Das betrifft vor allem die wichtigen 301-Weiterleitungen, aber auch viele andere Aspekte, die Unternehmen im Blick behalten sollten, damit ein Relaunch auch wirklich zum Erfolg wird.

Über den Autor

Markus Hövener

Gastautor
Ich bin Gründer und Head of SEO der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Außerdem bin ich Buchautor, Autor vieler Artikel und Studien rund um SEO und SEA sowie Chefredakteur des Magazins suchradar.
Kommentare