Signale für die Suchmaschine: Fünf wichtige Regeln der internen Verlinkung

Das erwartet euch in diesem Beitrag

  • Warum ist die interne Verlinkung so wichtig?
  • Weshalb muss Nutzern und Suchmaschinen-Bots die Navigation leichtfallen?
  • Worauf ist bei der internen Verlinkung vor allem zu achten?

Die interne Verlinkung ist ein wichtiges Instrument, das Websitebetreiber nicht vernachlässigen dürfen. Dies vor allem bei größeren Portalen, deren Unterseiten kaum oder gar keine Backlinks haben, die den Suchmaschinen Relevanz suggerieren könnten. Denn Google bewertet unter anderem anhand von Links, welche Seiten besonders relevant sind und legt fest, wo diese in den SERPs angezeigt werden. Durch die interne Verlinkung könnt ihr der Suchmaschine also wichtige Signale zu euren Seiten senden.

Daher gilt: Kommt ein Besucher oder der Suchmaschinen-Bot auf eine Seite, muss es ihm so einfach wie möglich gemacht werden, durch die Seite zu navigieren.

Sobald der Suchmaschinen-Bot auf eure Seite kommt, folgt er den internen Links. Dabei hält er sich an die Vorgaben aus der robots.txt-Datei, in welcher ihr dem Crawler mitteilt, welche Seite oder Dateien angefordert werden dürfen und welche nicht. Mittels einer guten internen Verlinkung könnt ihr durch gezielte Verweise die wirklich wichtigen Seiten stärken und für den Bot interessanter machen. Die Wahl der richtigen Anchor-Texte hilft dem Crawler zu verstehen, warum eine Seite für ein Keyword relevanter ist als eine andere.

Für den Besucher muss es jederzeit möglich sein, zur Startseite zurückzukehren. Die Startseite sollte von jeder Unterseite aus gut erreichbar sein. Die Logoverlinkung im Head-Bereich ist hierbei heute Standard. Dorthin klickt jeder Nutzer automatisch, wenn er zurück zur Startseite möchte. Eine weitere Möglichkeit ist, insbesondere bei großen Seiten, die eine komplizierte hierarchische Struktur aufweisen, die Verwendung einer Breadcrumb-Navigation. Über diese kann der Nutzer jederzeit den zurückgelegten Klickpfad nachverfolgen und auch wieder zurückgehen. Unterseiten werden so noch besser miteinander verlinkt. Sowohl Nutzer als auch Suchmaschinen können Inhalte einfacher finden und durch die Seite navigieren.

Im Folgenden stellen wir euch fünf wichtige Regeln vor, die ihr bei internen Verlinkungen auf jeden Fall beachten solltet.

1. Regel: Linkjuice gezielt verteilen

Über interne Links wird Linkjuice auf die Zielseiten vererbt. Der Linkjuice gibt an, wie viel Kraft ein Backlink auf seine Zielseite weitergibt und diese damit stärkt. Je mehr interne Links auf einer Seite sind, umso weniger Linkkraft kommt auf den Zielseiten an. Setzt interne Links deshalb nicht leichtfertig, sondern gezielt und sinnvoll auf den Quellseiten ein.

Für relevante Seiten sollten mindestens fünf interne Links von verschiedenen Seiten gesetzt werden, die nicht aus der Navigation stammen. Diese Links müssen in einem gesunden Verhältnis zum Content stehen. Je nach Länge des Contents sollten nicht mehr als drei bis acht unterschiedliche Links gesetzt werden, die thematisch zur Zielseite passen. Nur so ist die Verlinkung sowohl für Nutzer als auch Suchmaschine relevant und hilfreich.

Geht mit eurem Linkjuice sparsam um und setzt nicht unnötig viele Links. Nehmen wir als Fallbeispiel einmal eine Kategorieseite mit sehr vielen Produkten: Viele Seitenbetreiber setzen über Produktbild und Produkttitel einen Link zur Produktdetailseite. Der Suchmaschinen-Bot folgt zwar jedem Link auf einer Seite, der kostbare Linkjuice wird aber nur an den ersten Link je Linkziel weitervererbt. Dementsprechend fließt nur der Linktext des ersten Links in die Bewertung mit ein. Bildlinks haben im Gegensatz zu Textlinks keinen Ankertext. Ist der Bildlink euer erster Link zu einer Seite, dürft ihr nicht vergessen ALT-Tag und Bildtitel anzugeben. Nur dann kann die Suchmaschine diese Information als Linktext auswerten. Linkjuice, der auf den zweiten Link zum selben Linkziel zeigt, geht verloren. Damit das nicht passiert und ihr die Linkpower von der linkgebenden Seite optimal verteilt und nichts verschwendet, könnt ihr auf die Linkmaskierung (PRG Pattern) zurückgreifen. So ist für den Bot nur noch ein Link je Ziel erkennbar.

2. Regel: Linktexte und Longtail-Optimierung

Bei der Wahl der Anchor-Texte seid ihr bei der internen Verlinkung nicht durch die strengen Richtlinien von Google, die es zum Beispiel für Backlinks gibt, eingeschränkt. Das bedeutet, je öfter ein Dokument mit ein- und demselben Keyword verlinkt wird, umso besser.

Bei der Optimierung der Linktexte sollte immer Folgendes beachtet werden:

  • Kein internes “nofollow” verwenden, da sich sonst der Linkjuice nicht vererbt.
  • Die Zielseite muss thematisch zur linkgebenden Seite passen.
  • Anchor-Text-Wahl:
    • Single Keywords sind erlaubt und gewollt.
    • Der gesetzte interne Link muss zum Thema der linkgebenden Seite passen.
    • Auf Anchor-Text-Variationen darf gerne verzichtet werden. Denn je öfter das Dokument mit demselben Linktext verlinkt wird, umso eindeutiger sind die Signale.
  • Der Anchor-Text sollte immer das Hauptkeyword der Zielseite beinhalten.
  • Lesbarkeit und Natürlichkeit des Textes sind wichtig.
  • Intern sollte immer das gleiche Keyword mit derselben Zielseite verbunden sein.
  • Title-Tag setzen, um den Inhalt der Zielseite kurz zu beschreiben, damit Nutzer und Suchmaschine wissen, was sich hinter dem Link verbirgt.
  • Einmalige Linkziele mit einzigartigen Linktexten innerhalb einer Seite verwenden.
  • Den internen Link am Anfang des Contents platzieren, damit die Klickwahrscheinlichkeit steigt.
  • Link muss sich vom umgebenden Text hervorheben (Farbe/kursiv/fett/unterstrichen).

Die Bedeutung der richtigen Wahl des Linktextes zeigt das folgende Beispiel: Ein großer Onlineshop für Mode möchte auf einer Kategorieseite einen Link für das Keyword “Jeans” setzen. Da Mode für Frauen, Herren und Kinder angeboten wird, geht aus dem Anchor-Text “Jeans” nicht klar hervor, ob es sich nun um Jeans für Damen, Herren oder Kinder handelt. Besser wäre die Wahl von “Damen-Jeans” oder “Jeans für Damen” als Anchor-Text für den Link. Damit wird ein eindeutiges Signal für Suchmaschine und Nutzer zum erwartbaren Thema der Zielseite gesendet. Bei der Optimierung des passenden Title-Tags könnt ihr euch dann im Longtail-Bereich austoben, um den Inhalt der Zielseite noch genauer zu beschreiben. Etwa so: “bequeme Jeans für Damen bei Mein-Shop”.

Und noch ein Tipp: Was oft vergessen wird: Verlasst bei der Verlinkung auch mal den aktuellen Navigationsbaum und verlinkt in einen anderen Bereich, wenn es das Thema zulässt. Existiert beispielsweise eine Hauptkategorie für “Bekleidung” und eine für “Schuhe”, dann ist eine Verlinkung von der Kategorie “Jeans” in den Schuhbereich “Sneaker” durchaus sinnvoll. So gelangt der Bot beim Crawlen der Seite immer tiefer in die Seitenstruktur, und kostbare Linkpower wird weiter in andere Navigationspfade gestreut.

3. Regel: Klickpfadtiefe optimieren: Kurze Wege zum Ziel

Unter Klickpfadtiefe versteht man die Anzahl der Klicks, die ein Nutzer oder Bot benötigt, um auf eine bestimmte Seite zu gelangen. Hier sollten sowohl dem Besucher als auch dem Bot kurze Wege zur Zielseite geboten werden. Je mehr Klicks der Nutzer benötigt, um ans Ziel zu kommen, desto wahrscheinlicher ist es, dass er sich verirrt oder von der Seite abspringt, um bei der Konkurrenz das Gesuchte zu finden. Aus Sicht der Suchmaschinen bedeutet ein zu tiefer Klickpfad, dass Seiten, die nur mit sehr vielen Klicks erreichbar sind, weniger relevant sind. Entsprechend schlechter werden sie in den SERPs bewertet.

In der Regel sollten – ausgehend von der Startseite – alle wichtigen Seiten mit drei, maximal vier Klicks erreichbar sein. Natürlich ist es bei großen Websites wie Onlineshops schwierig, mit nur wenigen Klicks alle Bereiche abzudecken. Hier solltet ihr euch genau überlegen, wie die Seitenhierarchie optimal aufgebaut werden muss, damit nicht zu tiefe Verschachtelungen entstehen. Stellt euch dazu Fragen wie:

  • Können Themen zu einer neuen Kategorie zusammengefasst und hierarchisch weiter oben im Navigationsbaum eingeordnet werden?
  • Ist die Seite noch aktuell/relevant oder kann sie gelöscht werden? So wird kostbares Crawlbudget für wirklich wichtige Seiten gespart.
  • Gibt es Seiten mit ähnlichen Inhalten, die weiter oben in der Hierarchie stehen? Vielleicht würde eine Ergänzung um einen Absatz zu dem Thema auf der anderen Seite genügen, so dass die Seite gelöscht werden kann?
  • Besonders im E-Commerce-Bereich spielt die Paginierung für die Klickpfadtiefe eine große Rolle. Das Thema würde hier aber den Rahmen sprengen, deshalb empfehle ich euch an dieser Stell den Beitrag “The Ultimate Pagination – SEO Guide” von Audisto.

Gerade bei großen Seiten kann man schnell den Überblick verlieren, wie tief verschachtelt eine Seitenstruktur geworden ist. Ein hilfreiches Tool zur Ermittlung der Klickpfadtiefe ist beispielsweise Screaming Frog SEO Spider. Dieses kostenpflichtige Tool zeigt genau an, wie viele Klicks von der Startseite bis zur gewählten Seite notwendig sind. In unserem Beitrag „Screaming Frog SEO Spider: Fünf wichtige Analysen (nicht nur) für Shop-Betreiber“ erfahrt ihr, wie ihr das Tool in der Praxis verwendet.

4. Regel: Seiten mit wenigen oder gar keinen internen Links vermeiden

Intern schlecht verlinkte Seiten können zu schlechten Rankings führen, da die Suchmaschine sie kaum oder gar nicht findet. Wenn die Suchmaschine schon Probleme hat, auf diese Seiten zu stoßen, dann geht es Nutzern kaum anders. Deshalb müssen Seiten unbedingt auf die Qualität der internen Verlinkung hin überprüft werden! Auch hier hilft das oben erwähnte Screaming Frog SEO Spider Tool weiter, um die schlecht verlinkten Seiten zu finden. Das Tool liefert die genaue Anzahl an internen Links inklusive Quellen, die auf eine Seite verweisen.

Hier fängt nun die Optimierung an. Stellt sich heraus, dass relevante Seiten kaum oder gar keine eingehenden Links haben, müssen Links von thematisch passenden Seiten gesetzt werden. Insbesondere bei den relevanten Seiten sollten die Linkquellen der vorhandenen internen Links geprüft werden. Hier können Fehler auffallen, die es unbedingt zu bereinigen gilt – wie beispielsweise veraltete oder nicht unique Linktexte, Linkquellen, die nicht mehr passend sind etc.

Seiten, die nach der Überprüfung der Inlinks als nicht relevant eingestuft werden, sollten dagegen entfernt werden. Vergesst dabei bitte nicht, eventuelle interne Links zu dieser Seite mit auszubauen und Broken Links zu reparieren. Für Nutzer ist es äußerst nervig, auf einen Link zu klicken, der zu einer Fehlerseite führt. Das hat jeder von uns schon erlebt.

5. Regel: Status Code überprüfen

Wenn interne Links auf fehlerhafte Seiten verweisen, geht wertvoller Linkjuice verloren. Deshalb ist es wichtig, darauf zu achten, dass keine internen Links auf Weiterleitungen, 404-Fehlerseiten oder defekte Seiten verweisen. Bei jeder Weiterleitung von A nach B nach C usw. bleibt immer ein kleiner Teil vom vererbten Linkjuice liegen.

Für den Nutzer ist es zudem sehr frustrierend, wenn sich durch eine Weiterleitungskette die Wartezeit bis zum Seitenaufbau verlängert. Verlinkt also Seiten direkt zur richtigen Zielseite und vermeidet Weiterleitungsketten, die die Ladezeit erhöhen und die Seite langsamer machen. Pagespeed ist ein wichtiger Rankingfaktor. Auch wenn es oft nur Millisekunden sind, in der Summe mit anderen möglichen zeitfressenden Problemen auf einer Seite kommt dann doch mal die eine oder andere Sekunde zusammen. Übrigens gibt auch der Suchmaschinen-Bot bei zu vielen Redirects irgendwann auf. Der Googlebot folgt beispielsweise nur bis zu fünf Redirects, bevor er aussteigt.

Über den Autor

Kristin Siebert

Redakteurin
Nach meinem Studium zur Medieninformatik 2006 fand ich meinen Berufseinstieg bei der Searchmetrics GmbH zunächst als Grafikerin und später als Offpage-Manager in enger Zusammenarbeit mit dem SEO-Team. Im Sommer 2017 wechselte ich zu LEAP/ in den selben Bereich, wo ich mittlerweile als SEO Consultant unsere Kunden in der Suchmaschinenoptimierung berate.