Semantische Suche: Welche Rolle spielen Entitäten, Knowledge Graph, Hummingbird und NLP bei Google?

Das erwartet euch in diesem Beitrag

  • Was bedeutet “semantisches Verständnis” im Suchmaschinenkontext?
  • Wie werden Suchanfragen und Inhalte heute von Google gedeutet?
  • Was sollten SEOs künftig alles beachten und berücksichtigen?

Moderne Suchmaschinen wie Google wollen zu Antwort-Maschinen werden. Dafür muss die Bedeutung von Suchanfragen über die klassische Suchmaske oder via Voice und von indexierten Inhalten identifiziert werden können. Und hierfür bedarf es eines semantischen Verständnisses.

Vieles von dem, was wir als semantisches Verständnis bei der Identifikation der Bedeutung einer Suchanfrage oder eines Dokuments heute bei Google wahrnehmen, obliegt statistischen Methoden wie zum Beispiel Vektorraum-Analysen bzw. textstatistischen Methoden wie TF-IDF und Natural Language Processing  und basiert damit nicht auf echter Semantik. Aber die Ergebnisse kommen einem semantischen Verständnis sehr nahe. Gerade der vermehrte Einsatz von Machine Learning erleichtert die semantische Interpretation von Suchanfragen und Dokumenten ungemein.

Tipp der Redaktion: Wer vorab mehr von und über unseren Gastautor Olaf Kopp erfahren möchte, dem sei das GrowthUp-Interview “10 Fragen an Olaf Kopp: Die Facetten des Online-Marketings” von 2019 empfohlen.”

Die zentralen Module der semantischen Suche: Hummingbird, Knowledge Graph und Entitäten

Die ersten konkreten Schritte in Richtung einer semantischen Suchmaschine unternahm Google im Jahr 2010 mit dem Kauf des Betreibers der Wissensdatenbank Freebase Metaweb. Freebase war eine semantische Datenbank, die das Wissen der Welt in geordneter und strukturierter Form erfassen sollte.

Freebase bildete die Grundlage für den 2012 vorgestellten Google Knowledge Graph. Bei der Einführung des Knowledge Graph umfasste dieser über 500 Millionen Einträge zu Entitäten wie Personen, Organisationen, Orten, Bauwerken und andere Dingen. Beim Kauf von Freebase im Jahr 2010 beinhaltete die Datenbank nur ca. 12 Millionen Einträge.

Entitäten sind die zentrale Organisationseinheit innerhalb des Knowledge Graph. Grundsätzlich kann zwischen „Named Entities“ (zu Deutsch: benannten Entitäten) und Konzepten unterschieden werden. Benannte Entitäten sind Objekte aus der echten Welt, wie beispielsweise Personen, Orte, Organisationen, Produkte, Events etc.

Konzepte sind abstrakte Entitäten physikalischer, psychologischer oder sozialer Natur, wie etwa Entfernung, Quantität, Emotionen, Menschenrechte, Friede etc. Mehr zum Thema „Entitäten“ findet ihr im Glossar von Aufgesang und in meinem Beitrag „Alles was Du zu Entitäts-Typen, -Klassen & Attributen wissen solltest“.

Als Grundlage für den Knowledge Graph dienen drei Ebenen:

  • Entitäten-Katalog: Hier werden alle Entitäten gespeichert, die mit der Zeit identifiziert worden sind.
  • Knowledge Repository: Die Entitäten werden in einem Wissensdepot (Knowledge Repository) mit den Informationen bzw. Attributen aus verschiedenen Quellen zusammengeführt. Im Knowledge Repository geht es in erster Linie um die Zusammenführung und Speicherung von Beschreibungen und die Bildung semantischer Klassen bzw. Gruppen in Form von Entitätstypen. Die Daten generiert Google über den Knowledge Vault. Über den Knowledge Vault ist es Google möglich, Data Mining aus unstrukturierten Quellen zu betreiben.
  • Knowledge Graph: Im Knowledge Graph werden die Entitäten mit Attributen verknüpft und Beziehungen zwischen Entitäten hergestellt.

Für die Identifikation von Entitäten und der dazugehörigen Informationen kann Google auf verschiedene Quellen zurückgreifen.

Datenquellen für den Knowledge Graph (Copyright: Olaf Kopp, Aufgesang GmbH)

Man kann diese Quellen nach der Beschaffenheit unterscheiden:

  • Strukturierte Datenquellen: Strukturierte Datenquellen sind offene manuell gepflegte Wissensdatenbanken wie Wikidata und automatisiert erstellte Datenbanken wie YAGO oder Dbpedia. Letztere basieren auf den Informationen der Wikipedia. Die Vorteile von strukturierten Datenquellen sind die Maschinenlesbarkeit und der aufgrund der manuellen Prüfung hohe Grad der Validität. Der Einfluss von Websites mit ausgezeichneten strukturierten Daten auf den Knowledge Graph ist allerdings gering. Diese dienen eher dazu, um Googles Machine-Learning-Algorithmen anzulernen, um zukünftig unstrukturierte Informationen besser verstehen zu können.
  • Semistrukturierte Datenquellen: Semistrukturierte Datenquellen sind Enzyklopädien wie die Wikipedia. Diese Datenquellen lassen sich aufgrund einer gleichbleibenden Strukturierung leicht in strukturierte Daten transformieren. Der große Nachteil ist hier das langsame Wachstum des Wissens innerhalb dieser Datenquellen. Das gilt für alle Formen von strukturierten Daten.
  • Unstrukturierten Daten: Das Data Mining aus unstrukturierten Daten ist die wichtigste, aber auch größte Herausforderung für Google. Mit Blick auf Recall bzw. Vollständigkeit muss Google nahezu das komplette Internet als Quelle nutzen, um das „unendliche“ Wissen der Welt zu erfassen. Hierzu hat Google den Knowledge Vault entwickelt, der über das Crawling und unter anderem die Verwendung von Natural Language Processing, Vektorraum-Analysen etc. deutlich mehr Entitäten inklusive dazugehörigen Informationen wie Entitätstyp, Entitätsklassen, Attribute, Beziehungswerte, thematischer Kontext etc. erfassen kann.

Mehr zum Thema „Erfassung von Informationen aus strukturierten Daten und Data Mining aus unstrukturierten Daten“ in den Beiträgen „Wie verarbeitet Google Informationen aus der Wikipedia für den Knowledge Graph?“ und „Wie kann Google aus unstrukturierten Inhalten Entitäten identifizieren und deuten?“.

Nicht alle im Knowledge Repository erfassten Entitäten werden in den Knowledge Graph übernommen. Folgende Kriterien könnten über die Aufnahmen in den Knowledge Graph entscheiden:

Generelle Kriterien:

  • Nachhaltige gesellschaftliche Relevanz
  • Genügend Suchtreffer für die Entität im Google-Index
  • Anhaltende öffentliche Wahrnehmung
  • Einträge in einem anerkannten Lexikon oder einer anerkannten Enzyklopädie bzw. in einem fachspezifischen Nachschlagewerk

Neben diesen allgemeinen Kriterien wird es auch typen- und klassenspezifische Kriterien für die Aufnahme von Entitäten im Knowledge Graph geben. Mit etwas Glück kann man den Weg über das Knowledge Repository auch abkürzen, indem man einen Eintrag bei Wikidata für eine Entität anlegt (siehe auch: „So wirst du von Google als Entität wahrgenommen“ von Artur Kosch).

Im Knowledge Graph werden Entitäten in Beziehung zueinander gesetzt und die Beziehungen mit Beziehungswerten versehen. Auch die Nähe zwischen Entitäten kann festgelegt sein. Dadurch lassen sich auch Suchanfragen verstehen, die die nachgefragte Entität oder das Attribut selbst nicht beinhalten. Zum Beispiel „wie alt ist barrack obama“ oder „bundespräsident deutschland“. Mehr Informationen zum Knowledge Graph findet ihr wiederum im Aufgesang-Glossar.

Sind Entitäten im Knowledge Graph erfasst, werden bei Entitäten-bezogenen Suchanfragen sogenannte Knowledge Panel oder Knowledge Cards in den Google-Suchergebnissen angezeigt.

Die Informationen im Knowledge Panel variieren je nach Entitätstyp oder -klasse.

Beispiel Knowledge Panel Film & Schauspieler (Screenshot Google)

Beispiel Knowledge Card für das Attribut „Architektonische Höhe“ für die Entität „Empire State Building“ (Screenshot Google)

Diese können grundlegende Informationen zur Entität oder nur einzelne Attribute zu dieser enthalten. Mehr dazu in meinem Beitrag „Wie funktionieren Knowledge Panel & Knowledge Cards?

Hummingbird als Motor für die semantischen Suche

Die Einführung von Hummingbird im Jahr 2013 war der eigentliche Startschuss der semantischen Suche, da nun auch das Information Retrieval auf eine semantische Grundlage gestellt wurde. Google selbst hat dieses Algorithmus-Update als das bedeutendste seit dem Caffeine-Update im Jahr 2010 bezeichnet.

Es soll zur Einführung ca. 90 Prozent aller Suchanfragen betroffen haben. Als Vergleich dazu haben Rankbrain oder BERT zur Einführung nur 10 bis 15 Prozent der Suchanfragen beeinflusst. Die Suchmaschine wurde mit Hummingbird auf eine komplett neue Basis aufgesetzt.

Hummingbird wurde eingeführt, komplexere Suchanfragen besser zu deuten und noch besser die eigentliche Suchintention bzw. Fragestellung hinter einer Suchanfrage zu erkennen sowie passende Dokumente dazu anzubieten.

Bis dato funktionierten Suchmaschinen, indem einzelne Begriffe aus der Suchanfrage einzeln für sich mit den indexierten Dokumenten abgeglichen wurden. Das war ein einfacher statistischer Vorgang bei dem zum Beispiel Signale wie Termfrequenz bzw. Keyworddichte einen großen Einfluss hatten.

Von einem wirklichen Verständnis der Suchanfrage bzw. dem Inhalt konnte man vor Hummingbird bei Google nicht sprechen.

Über die Jahre wurde Hummingbird mit einigen Update-Features ergänzt. Die wichtigsten waren Rankbrain und BERT.

Möglicher Aufbau einer Information-Retrieval Systems von Google (Copyright: Olaf Kopp, Aufgeang GmbH)

BERT bzw. Natural Language Processing zur Deutung von Suchanfragen und Inhalten

Als eines der wichtigsten Updates seit Rankbrain wurde das BERT-Update bezeichnet. BERT basiert auf Natural Language Processing und Vektorraumanalysen.

BERT kann als eine Weiterentwicklung von Rankbrain gesehen werden. Rankbrain basierte in erster Linie auf Vektorraumanalysen. Die Einschränkung bei klassischen Vektorraumanalysen wie Word2Vec ist, dass nur einzelne, für sich stehende Begriffe ohne Berücksichtigung des Kontexts ins Verhältnis zueinander gebracht werden können. Die Deutung ist kontextlos.

Die Bedeutung ergibt sich häufig erst aus dem Kontext, in dem die Wörter und Sätze genutzt werden. Somit lässt sich die Bedeutung eines Text-Fragments oft nur identifizieren, wenn auch die Wörter und Sätze in dessen Umfeld berücksichtigt werden.

Durch BERT bzw. Natural Language Processing hat Google die Möglichkeit geschaffen, bei der Deutung eines Text-Fragments auch die Teile vor und nach dem fokussierten Fragment bidirektional zu berücksichtigen.

Zudem wird BERT nicht nur für die Interpretation von Suchanfragen, sondern auch von Inhalten genutzt.

Für folgende Anwendungsbereiche kann Natural Language Processing eingesetzt werden:

  • Spracherkennung (text to speech & speech to text)
  • Segmentierung zuvor erfasster Sprache in einzelne Wörter, Sätze und Phrasen
  • Erkennen der Grundformen der Wörter und Erfassen grammatischer Informationen
  • Erkennen der Funktionen einzelner Wörter im Satz (Subjekt, Verb, Objekt, Artikel etc.)
  • Extraktion der Bedeutung von Sätzen und Satzteilen bzw. Phrasen wie Adjektivphrasen (z. B. „zu langen“), Präpositionalphrasen (z. B. „an den Fluss“) oder Nominalphrasen (z. B. „der zu langen Party“)
  • Erkennen von Satzzusammenhängen, Satzbeziehungen und Entitäten.

Text-Fragmente wie beispielsweise Sätze werden über Tokenization und Part Of Speech Tagging in einzelne grammatikalische deutbare Teile aufgeteilt. Hier ein Beispiel aus meinem Glossar-Beitrag zu SEO:

Die einzelnen Tokens bleiben im Kontext der Sätze, damit die Relationen zwischen ihnen erhalten bleiben. Dadurch bleibt die semantische Beziehung der Absätze, Sätze und Tokens erhalten.

Durch Natural Language Processing lassen sich Entitäten besser identifizieren und deuten. Jedes Subjekt und Objekt stellt in einem Text-Fragment eine potentielle Entität dar. Sowohl die Beziehung zwischen Entitäten als auch die Deutung kann durch sogenannte RDF-Triples aus Subjekt, Prädikat und Objekt ermittelt werden.

Beispiel für eine Entitäten-Analyse mit der Natural Language Processing API von Google (Screenshot)

Für Informationen zu Entitäten stehen Google Billionen von Dokumenten im eigenen Index und noch mehr Suchanfragen-Kombinationen zur Verfügung. Gerade Suchanfragen sind ideal zum Trainieren von Semantik, da sie eine Intention und einen Kontext aufweisen, welcher in sich abgeschlossen ist.

Dadurch wird der Aufbau des Entitäten-Indexes sehr wahrscheinlich noch einmal Fahrt aufnehmen, da Google ohne menschliches Zutun den Entitäten-Katalog und das Knowledge Repository skalierbar weiter aufbauen kann. Mehr zum Data Mining via Natural Language Processing im Beitrag „Die Rolle von Natural Language Processing für Data Mining, Entitäten & Suchanfragen“.

Warum sind Entitäten ein so wichtiges Element für die heutige Google-Suche?

Entitäten spielen in den folgenden Bereichen der Google-Suche eine immer wichtigere Rolle:

  • Indexierung
  • Interpretation der Suchanfragen
  • Relevanzbestimmung von Dokumenten
  • Ausgabe einer Ad-hoc-Antwort in Form eines Knowledge Panel, Featured Snippet etc.
  • Bewertung von Autoren und Publishern

Indexierung

Das Entitäten-Konzept ist für die heutige Google-Suche ein elementarer Bestandteil, da Entitäten das zentrale Element in der Organisationsstruktur darstellen. Der Google-Index entwickelt sich seit der Einführung von Hummingbird von einem Content-Index zu einem Entitäten-Index.

Der Knowledge Graph und das Knowledge Repository sind Googles Entitäten-Index. Auf der anderen Seite der klassische Content-Index inklusive der vertikalen Indizes für die unterschiedlichen Formate.

Da Entitäten in jedem Land und jeder Sprache nahezu die gleiche Bedeutung haben, ist ein Entitäten-basierter Index aus Effizienz-Gründen schon mal ein großer Vorteil. Ein Löwe bedeutet in England das gleiche wie in Deutschland. Nur der Name ist je nach Landessprache divers. Löwe (deutsch), lion (englisch), leon (spanisch) etc. hat in jedem Land und jeder Sprache die gleiche Bedeutung.

Es geht um die Bedeutung und nicht um die Sprache. Das würde Google die Interpretation von Sprache deutlich vereinfachen. Wenn Google einmal die Bedeutung hinter einer Entität versteht, ist sie in jeder Sprache erkennbar.

So kann Google zum Breispiel für einen Knowledge Graph die Beschreibung der Entität der entsprechenden Nutzersprache ausliefern – unabhängig davon, ob „lion“, „löwe“ oder „leon“ eingegeben wird. Gerade in Sprachen, die Google noch nicht so auf dem Schirm hat, ist das ein großer Vorteil.

Meine Annahme ist, dass Google den Entitäten-Index über eine Art Schnittstelle stetig mit Informationen aus dem Content-Index anreichert und die erfassten Entitäten mit den Inhalten verknüpft.

Sobald eine Suchanfrage einen Entitäten-Bezug hat, greift Google sowohl auf den Entitäten-Index als auch den klassischen Content-Index zu, erstellt Knowledge Panel und/oder Knowledge Cards und ermittelt ein erstes Relevant Set an Dokumenten bzw. Inhalten, die zur Suchintention und zum Suchterm passen. Das Scoring dieser Dokumente übernimmt dann Hummingbird.

Mehr zum Thema im Beitrag „Entitäten-basierte Indexierung: Vom Content-Index zum Entitäten-Index“.

Interpretation von Suchanfragen

Die Interpretation von Suchanfragen ist in Zeiten immer komplexer werdender Suchanfragen, insbesondere durch Voice Search, eine der größten Herausforderungen für Suchmaschinen. Für den Nutzwert einer Suchmaschine ist entscheidend, zu verstehen, was der Nutzer sucht. Das ist gerade bei unklar formulierten Suchanfragen keine leichte Aufgabe. Bei modernen Information-Retrieval-Systemen geht es immer weniger um die Keywords, die ein Suchterm beinhaltet, als vielmehr um die Bedeutung der Suchanfrage. Hier spielen Entitäten bei vielen Suchanfragen eine zentrale Rolle.

In einem Interview von 2009 sagte Ori Allon, damaliger technischer Leiter des Google Search Quality Teams, in einem Interview mit IDG :

“We’re working really hard at search quality to have a better understanding of the context of the query, of what is the query. The query isn’t the sum of all the terms. The query has a meaning behind it. For simple queries like ‚Britney Spears‘ and ‚Barack Obama‘ it’s pretty easy for us to rank the pages. But when the query is ‚What medication should I take after my eye surgery?‘, that’s much harder. We need to understand the meaning…“

Google will herauszufinden, um welche Entität es sich bei einer Frage handelt. Das ist nicht einfach, wenn die Entität selbst im Suchterm gar nicht vorkommt. Durch im Suchterm vorkommende Entitäten und den Relationskontext zwischen Entitäten kann Google die gesuchte Entität identifizieren.

Ein Beispiel:

Die Frage „wer ist chef bei vw“ oder die implizite Fragestellung „chef vw“ führt zur Auslieferung der folgenden Knowledge-Graph-Box:

Knowledge Card für die Suchanfrage „chef vw“ bei Google (Screenshot Google)

In diesem Beispiel spielen zwei Entitäten und eine Verbindungsart bzw. Prädikatsphrase eine wichtige Rolle zur Beantwortung der Frage.

  • VW (Entität)
  • Chef (Verbindungsart)
  • Herbert Diess (Entität)

Nur über die Kombination der Entität „VW“ mit der Verbindungsart „Chef“ kann Google die Frage nach der Entität „Herbert Diess“ beantworten.

Google nutzt je nach Suchterm eine Kombination aus der klassischen Term-basierten und/oder Entitäten-basierten oder Entitäten-Typen-basierten Interpretation der Suchanfrage. Die Entitäten-Typen-basierte Interpretation ist relevant bei Suchanfragen, bei denen nach mehreren Entitäten eines Typs bzw. einer Klasse gesucht wird wie zum Beispiel „sehenswürdigkeiten hannover“. Hier wird eine Box ausgegeben, die mehrere Entitäten auflistet.

Liste/Karussell für die Suchanfrage „sehenswürdigkeiten hannover“ (Screenshot Google)

Mehr dazu im Beitrag „Entitäten bei der Interpretation von Suchanfragen“ .

Relevanzbestimmung von Dokumenten

Zur Ermittlung des Rankings von Dokumenten müssen Suchmaschinen ein Relevant-Set von Dokumenten/Inhalten bestimmen, die anschließend über ein Scoring in Reihenfolge gebracht werden. Für die Bestimmung dieses Relevant-Sets werden aus einem Korpus an Dokumenten mit annotierten Inhalten die Top-N-Dokumente bestimmt. Diese Bestimmung kann auf Dokumenten-Ebene sowie Autoren-Ebene und Publisher-Ebene durchgeführt werden.

Hier können Natural Language Processing und Vektorraumanalysen in Bezug auf Entitäten und/oder Terme eine Rolle spielen. Für eine Gewichtung zur Ermittlung der Top-N-Dokumente können ein Salience Score (NLP) und der Cosinus-Wert des Winkels zwischen den betrachteten Vektoren genutzt werden.

Entitäten und Dokumente im Vektorraum

Das eigentliche Scoring der Top-N-Dokumente kann klassisch mit Term-Bezug sowie Entitäten-Bezug durchgeführt werden.

Mehr dazu im Beitrag „Wie kann Google über Entitäten, NLP & Vektorraumanalysen relevante Dokumente identifizieren und ranken?“.

Bewertung von Autoren und Publishern

Den wohl größten Einfluss auf das Google-Ranking hat das Entitäten-Konzept im Rahmen der Bewertung von Autoren und Publishern. Inhalte werden durch Personen wie Autoren und Organisationen wie Unternehmen, Vereine, Behörden etc. veröffentlicht. Diese Organisationen und Personen sind benannte Entitäten. Durch die Rolle von Entitäten als zentrale Organisationseinheit kann Google Rückschlüsse auf die Glaubwürdigkeit und Relevanz des mit der Entität verknüpften Dokuments bzw. des Inhalts ziehen.

Über diese Dokumente sowie Attribute wie beispielsweise Beruf, Autorenprofile oder Profile in sozialen Netzwerken, Mitgliedschaften bei Verbänden, Beziehungen zu anderen Entitäten etc. kann Google den thematischen Kontext oder Kontexte identifizieren.

Mögliche Organisation von Informationen rund um Entitäten

Darüber lassen sich Signale für eine Bewertung im Sinne von E-A-T (Expertise-Authority-Trustworthiness) ableiten.

Je häufiger eine Entität in Form eines Autors oder Publishers in bestimmten Kontexten genannt wird, desto mehr Autorität und Glaubwürdigkeit hat sie in einem oder mehreren Themenbereichen.

Das gilt für Online-Inhalte wie auch für Suchanfragen.

Dazu gibt es einige sehr spannende Google-Patente, die ich in dem Beitrag „Entitäten & E-A-T: Die Rolle von Entitäten bei Autorität und Trust“ vorstelle.

Warum sollte mich das alles als Webmaster und SEO interessieren?

Ich werde in letzter Zeit häufig gefragt, warum man sich mit den ohne Zweifel komplexen Themen „Entitäten“, „semantische Suche“ und „Natural Language Processing“ beschäftigen soll.

Ich stelle da gerne die Gegenfrage: „Für wie wichtig hältst Du es, Dich als SEO oder SEO-interessierte Person mit der Funktionsweise von modernen Suchmaschinen auseinanderzusetzen?“

Oft kommt auch das Totschlag-Argument, dass eh niemand weiß, wie Google genau funktioniert und man testen muss was funktioniert.

Die Aussagekraft von Untersuchungen und Tests hinsichtlich von SEO-Taktiken, wie man es aus früheren Jahren der Suchmaschinenoptimierung kennt, ist aufgrund der Vielschichtigkeit der heutigen Ranking-Algorithmen bis auf ganz wenige Ausnahmen sehr gering.

Deswegen ist es umso wichtiger, dass man die Funktionsweise von Google annähernd versteht. Das gibt keine Antwort auf die genaue Gewichtung der Rankingfaktoren, aber man kann Mythen und Taktiken von Gestern besser identifizieren sowie mögliche neue Rankingfaktoren ableiten.

Was können SEOs daraus lernen?

Aus meinen Erfahrungen und Recherchen der letzten sieben Jahre zum Thema „semantische Suche & Entitäten“ kann ich folgende Empfehlungen und Rückschlüsse für die Suchmaschinenoptimierung zusammenfassen:

  • Jeder SEO sollte sich mit den Themen Knowledge Graph, Entitäten, Natural Language Processing und Word Embeddings beschäftigen. Diese Themen werden zukünftig die wichtigsten Grundlagen für moderne Suchmaschinenoptimierung sein.
  • Aktuell ist die einzige selbstbestimmte Möglichkeit als Entität im Knowledge Graph erfasst zu werden, ein Wikidata– oder Wikipedia. Da die Relevanzkriterien für die Aufnahme in der Wikipedia höher sind als für Wikidata, kann man es als erstes dort probieren. Ich empfehle, hier gewissenhaft vorzugehen und sich kritisch zu hinterfragen, ob man wirklich so relevant ist, wie man denkt. Auch bei Wikidata werden die Einträge von Moderatoren überprüft, und diese nehmen sich die Freiheit, Einträge wieder zu entfernen oder Accounts zu sperren. Ein Wikidata-Eintrag ist zudem keine Garantie für ein Knowledge Panel. Nur wer die Relevanz der angelegten Entität belegen kann, wird ein Knowledge Panel bekommen.
  • Sorgt dafür, dass Google euch als Entität erkennt.
    • Dafür sollte man den Namen der Marke, des Unternehmens so häufig wie möglich klar ersichtlich als Subjekt in Sätzen verwenden. Dadurch fällt es einfacher, den Namen als Entität via NLP zu identifizieren.
    • Verlinkt eure Website mit dem Personen- oder Markennamen von anderen Websites.
    • Sorgt dafür, dass Menschen nach eurer Person oder eurem Unternehmen googeln und in den Suchergebnissen auf eure Website klicken.
  • Sorgt dafür, dass ihr glaubwürdig und bei den für euch wichtigen Themen eine Autorität werdet.
    • Sorgt dafür, dass Menschen euch oder euer Unternehmen googeln. Am besten zusammen in Kombination mit für die Themenbereiche relevanten Keywords.
    • Berücksichtigt in Marketing und Kommunikation, dass ihr Kookkurrenzen aus Personen-Namen, Marken-Namen in Kombination mit Themen-relevanten Keywords online erzeugt.
    • Seid aktiv als Gastautoren und publiziert unter eurem Namen und dem eures Unternehmens themenrelevante Inhalte bei themenrelevanten Publishern. Verlinkt diese Beiträge von eurer Website und/oder euren anderen Profilen.
    • Publiziert auf eurer Website und über eure weiteren Profile themenrelevanten Content, der so hochwertig ist, dass andere darauf verweisen.
    • Haltet Vorträge auf themenrelevanten Veranstaltungen.
    • Sorgt generell dafür, dass ihr zu eurem Themen im Gespräch seid.
    • Sorgt proaktiv für positive Bewertungen und Rezensionen.
    • Sorgt für eine thematische Positionierung über eure Autoren-Boxen und Online-Profile, durch Nutzung von themenrelevanten Keywords.
    • Schreibt ein oder mehrere Bücher zu eurem Thema.
    • Veröffentlicht Videos zu euren Themen bei YouTube.
  • Da man davon ausgehen kann, dass Google zukünftig immer mehr Natural Language Processing zur Interpretation von Texten nutzt ,sollten einige Empfehlungen bei der Texterstellung berücksichtigt werden:
    • Bei der Erstellung von Texten sollte man grammatikalisch klar und einfach schreiben. Also zum Beispiel auf Schachtelsätze und viele Nebensätze verzichten. Damit tut man dem Leser einen Gefallen, und die Bedeutung lässt sich besser über NLP interpretieren.
    • Bei der Erstellung von Texten sollte man möglichst auf Personalpronomen verzichten und die Entität beim Namen nennen, damit Google eindeutig versteht, was gemeint ist.
    • Bei der Erstellung sollten Adverbien und Adjektive nur genutzt werden, wenn sie wirklich wichtig für das Verstehen eines Satzes sind.
    • Zusammengefasst sollte auf Geschwafel und Blabla verzichtet werden, um Google und Lesern einen Gefallen zu tun.
  • Das semantisch passende Umfeld rund um die in einem Text beschriebenen Entitäten macht es Suchmaschinen möglich, diese besser zu erfassen und zu deuten. Darüber können Google & Co. auch den Inhalt thematisch einordnen. Wenn viele Kookkurrenzen zwischen einer Hauptentität mit anderen Entitäten, Attributen etc. vorkommen, ist es eine gute Empfehlung, diese auch in den eigenen Inhalten zu verwenden. TF-IDF-Analysen sind hier ein probates Mittel, um Begrifflichkeiten zu identifizieren, die das semantische Umfeld einer Entität bzw. eines Themas beschreiben.
  • Verknüpft eure Repräsentanzen/Profile wie Domains, Apps, Kanäle auf YouTube und Social Media miteinander, um sie als digitale Abbilder eurer Entität zusammenzuführen. Als Person kann man auch auf die Autorenprofile in anderen Medien verweisen (wenn vorhanden). Nutzt Linktexte, die euren Personen-Namen bzw. Markennamen enthalten.

Zum Schluss möchte ich noch auf meine ausführliche Artikelreihe zu Semantik und Entitäten in der SEO hinweisen. Hier gehe ich detailliert in ausführlichen Einzelbeiträgen den Themen „Entitäten“, „Knowledge Graph“ und „Natural Language Processing“ in Bezug auf Suchmaschinen ein. In den Beiträgen beziehe ich mich auf eine Vielzahl an Google-Quellen und Google-Patenten.

Googelt einfach nach „semantische seo“ oder folgt dieser URL: https://www.sem-deutschland.de/blog/semantische-seo-entitaeten/.

Ihr habt Interesse an noch mehr SEO-Wissen von Fachleuten? Dann guckt mal rein in unseren Beitrag “GrowthUp-ExpertInnenrunde: Wieviel Kreativität steckt in der Suchmaschinenoptimierung?“.
Über den Autor

Olaf Kopp

Ich bin Co-Founder, Chief Business Development Officer und Head of SEO der Aufgesang GmbH. Ich schreibe regelmäßig für Fachmagazine und war als Gastautor in diverse Buch-Veröffentlichungen involviert. Zudem engagiere ich mich als Dozent und Speaker, bin Mitveranstalter des SEAcamps und Moderator des Podcasts „Content-Kompass“ auf termfrequenz.