Indizierungs- und Keyword-Ranking-Techniken neu aufgelegt: 20 Jahre später
Veröffentlicht: 2022-08-04Als die Eichel, die zur SEO-Branche werden sollte, zu wachsen begann, basierten sowohl die Indexierung als auch das Ranking in Suchmaschinen ausschließlich auf Schlüsselwörtern.
Die Suchmaschine würde Schlüsselwörter in einer Abfrage mit Schlüsselwörtern in ihrem Index abgleichen, parallel zu Schlüsselwörtern, die auf einer Webseite erschienen.
Die Seiten mit der höchsten Relevanzbewertung würden anhand einer der drei beliebtesten Abruftechniken in eine Rangfolge gebracht:
- Boolesches Modell
- Wahrscheinlichkeitsmodell
- Vektorraummodell
Das Vektorraummodell wurde für Suchmaschinen am relevantesten.
Ich werde die grundlegende und ziemlich einfache Erklärung des klassischen Modells, das ich damals in diesem Artikel verwendet habe, noch einmal aufgreifen (weil es im Suchmaschinen-Mix immer noch relevant ist).
Nebenbei werden wir mit ein oder zwei Mythen aufräumen – wie zum Beispiel mit der Vorstellung von der „Keyword-Dichte“ einer Webseite. Bringen wir das ein für alle Mal ins Bett.
Das Schlüsselwort: Eines der am häufigsten verwendeten Wörter in der Informationswissenschaft; für Vermarkter – ein verhülltes Geheimnis
"Was ist ein Schlüsselwort?"
Sie haben keine Ahnung, wie oft ich diese Frage gehört habe, als die SEO-Branche aufkam. Und nachdem ich eine kurze Erklärung gegeben hatte, würde die Folgefrage lauten: „Also, was sind meine Schlüsselwörter, Mike?“
Ehrlich gesagt war es ziemlich schwierig, Vermarktern zu erklären, dass bestimmte Schlüsselwörter, die in einer Suchanfrage verwendet wurden, die entsprechenden Webseiten in den Suchmaschinenergebnissen auslösten.
Und ja, das würde mit ziemlicher Sicherheit eine weitere Frage aufwerfen: „Was ist eine Abfrage, Mike?“
Heutzutage sind Begriffe wie Schlüsselwort, Abfrage, Index, Ranking und alle anderen im Lexikon des digitalen Marketings alltäglich.
Als SEO glaube ich jedoch, dass es äußerst nützlich ist zu verstehen, woher sie stammen und warum und wie diese Begriffe heute noch genauso gelten wie damals.
Die Wissenschaft des Information Retrieval (IR) ist eine Teilmenge unter dem Oberbegriff „Künstliche Intelligenz“. Aber IR selbst besteht auch aus mehreren Teilbereichen, einschließlich der Bibliotheks- und Informationswissenschaft.
Und das ist unser Ausgangspunkt für diesen zweiten Teil meiner SEO-Erinnerungsreise. (Mein erstes, falls Sie es verpasst haben, war: Wir haben das Web seit 32 Jahren gecrawlt: Was hat sich geändert?)
Diese fortlaufende Artikelserie basiert auf dem, was ich vor 20 Jahren in einem Buch über SEO geschrieben habe, wobei ich Beobachtungen über den Stand der Technik im Laufe der Jahre gemacht und ihn mit dem heutigen Stand verglichen habe.
Die kleine alte Dame in der Bibliothek
Nachdem ich hervorgehoben habe, dass es Elemente der Bibliothekswissenschaft unter dem Banner des Informationsabrufs gibt, lassen Sie mich erzählen, wo sie in die Websuche passen.
Anscheinend werden Bibliothekare hauptsächlich als kleine alte Damen identifiziert. So sah es jedenfalls aus, als ich vor all den Jahren mehrere führende Wissenschaftler auf dem aufkommenden neuen Gebiet des „Web“ Information Retrial (IR) interviewte.
Brian Pinkerton, Erfinder von WebCrawler, zusammen mit Andrei Broder, Vice President Technology und Chief Scientist bei Alta Vista, der Suchmaschine Nummer eins vor Google, und Craig Silverstein, Director of Technology bei Google (und insbesondere Google-Mitarbeiter Nummer eins), haben alle beschrieben ihre Arbeit auf diesem neuen Gebiet als Versuch, eine Suchmaschine dazu zu bringen, „die kleine alte Dame in der Bibliothek“ zu emulieren.
Bibliotheken basieren auf dem Konzept der Karteikarte – deren ursprünglicher Zweck darin bestand, zu versuchen, alle bekannten Tiere, Pflanzen und Mineralien der Welt zu organisieren und zu klassifizieren.
Karteikarten bildeten das Rückgrat des gesamten Bibliothekssystems und indexierten riesige und unterschiedliche Informationsmengen.
Neben dem Namen des Autors, dem Titel des Buches, dem Thema und bemerkenswerten „Indexbegriffen“ (alias Keywords) usw. würde die Karteikarte auch den Standort des Buches enthalten. Und daher würde „die kleine alte Bibliothekarin“ nach einer Weile, wenn man sie nach einem bestimmten Buch fragt, intuitiv in der Lage sein, nicht nur auf die Abteilung der Bibliothek zu zeigen, sondern wahrscheinlich sogar auf das Regal, in dem das Buch steht, und so eine personalisierte schnelle Retrieval-Methode.
Als ich jedoch die Ähnlichkeit dieser Art von Indexierungssystem bei Suchmaschinen erklärte, wie ich es all die Jahre zuvor getan hatte, musste ich eine Einschränkung hinzufügen, die immer noch wichtig zu verstehen ist:
„Die größten Suchmaschinen sind indexbasiert, ähnlich wie Bibliotheken. Nachdem sie einen großen Teil des Webs in massiven Indizes gespeichert haben, müssen sie schnell relevante Dokumente zu einem bestimmten Schlüsselwort oder Ausdruck zurückgeben. Aber die Variation von Webseiten in Bezug auf Zusammensetzung, Qualität und Inhalt ist noch größer als der Umfang der Rohdaten selbst. Das Web als Ganzes hat keine vereinheitlichende Struktur, mit einer enormen Vielfalt an Schreibstilen und Inhalten, die viel breiter und komplexer sind als in traditionellen Sammlungen von Textdokumenten. Dies macht es für eine Suchmaschine fast unmöglich, streng konventionelle Techniken anzuwenden, die in Bibliotheken, Datenbankverwaltungssystemen und beim Abrufen von Informationen verwendet werden.“
Was dann mit Schlüsselwörtern und der Art und Weise, wie wir für das Web schreiben, geschah, war die Entstehung eines neuen Kommunikationsfeldes.
Wie ich im Buch erklärt habe, könnte HTML als ein neues linguistisches Genre betrachtet werden und sollte in zukünftigen linguistischen Studien als solches behandelt werden. Ein Hypertext-Dokument hat viel mehr zu bieten als ein „Flat-Text“-Dokument. Und das gibt mehr Aufschluss darüber, worum es auf einer bestimmten Webseite geht, wenn sie von Menschen gelesen wird, sowie der Text, der durch Text-Mining und Informationsextraktion durch Suchmaschinen analysiert, klassifiziert und kategorisiert wird.
Manchmal höre ich noch SEOs, die sich auf Suchmaschinen beziehen, die Webseiten „maschinell lesen“, aber dieser Begriff gehört viel mehr zur relativ neuen Einführung von „strukturierten Daten“-Systemen.
Wie ich häufig noch erklären muss, ist ein Mensch, der eine Webseite liest und Suchmaschinen Text Mining und Informationen „über“ eine Seite extrahieren, nicht dasselbe wie ein Mensch, der eine Webseite liest und Suchmaschinen mit strukturierten Daten „gefüttert“ werden.
Das beste greifbare Beispiel, das ich gefunden habe, ist ein Vergleich zwischen einer modernen HTML-Webseite mit eingefügten „maschinenlesbaren“ strukturierten Daten und einem modernen Reisepass. Werfen Sie einen Blick auf die Bildseite Ihres Reisepasses und Sie sehen einen Hauptabschnitt mit Ihrem Bild und Text, den Menschen lesen können, und einen separaten Abschnitt am Ende der Seite, der speziell für das maschinelle Lesen durch Wischen oder Scannen erstellt wurde.
Eine moderne Webseite ist im Wesentlichen wie ein moderner Reisepass aufgebaut. Interessanterweise habe ich vor 20 Jahren mit diesem kleinen Faktoid auf die Kombination Mensch/Maschine verwiesen:
„1747 veröffentlichte der französische Arzt und Philosoph Julien Offroy de la Mettrie eines der wegweisendsten Werke der Ideengeschichte. Er nannte es L'HOMME MACHINE, was am besten mit „Mensch, eine Maschine“ übersetzt werden kann. Oft hört man den Ausdruck „von Menschen und Maschinen“, und das ist die Grundidee der künstlichen Intelligenz.“
Ich habe in meinem vorherigen Artikel die Bedeutung strukturierter Daten betont und hoffe, etwas für Sie schreiben zu können, von dem ich glaube, dass es enorm hilfreich sein wird, das Gleichgewicht zwischen menschlichem Lesen und maschinellem Lesen zu verstehen. Ich habe es 2002 auf diese Weise total vereinfacht, um eine grundlegende Rationalisierung zu bieten:
- Daten: eine formalisierte Darstellung von Fakten oder Ideen, die durch einen Prozess kommuniziert oder manipuliert werden kann.
- Information: die Bedeutung, die ein Mensch Daten mittels der bekannten Konventionen zuweist, die bei ihrer Darstellung verwendet werden.
Deswegen:
- Daten beziehen sich auf Fakten und Maschinen.
- Informationen beziehen sich auf Bedeutung und Menschen.
Lassen Sie uns eine Minute über die Eigenschaften von Text sprechen und dann werde ich behandeln, wie Text als Daten in etwas „etwas missverstandenem“ (sagen wir mal) in der SEO-Branche, dem Vektorraummodell, dargestellt werden kann.
Die wichtigsten Schlüsselwörter in einem Suchmaschinenindex im Vergleich zu den beliebtesten Wörtern
Schon mal was von Zipfs Gesetz gehört?
Benannt nach dem Harvard-Linguistikprofessor George Kingsley Zipf, sagt es das Phänomen voraus, dass wir beim Schreiben vertraute Wörter sehr häufig verwenden.
Zipf sagte, sein Gesetz basiere auf dem wichtigsten Prädiktor für menschliches Verhalten: dem Streben, den Aufwand zu minimieren. Daher gilt das Gesetz von Zipf für fast alle Bereiche, in denen es um menschliche Produktion geht.
Das bedeutet, dass wir auch in der natürlichen Sprache eine eingeschränkte Beziehung zwischen Rang und Häufigkeit haben.
Die meisten großen Sammlungen von Textdokumenten haben ähnliche statistische Merkmale. Die Kenntnis dieser Statistiken ist hilfreich, da sie die Effektivität und Effizienz von Datenstrukturen beeinflussen, die zum Indexieren von Dokumenten verwendet werden. Viele Abrufmodelle verlassen sich auf sie.
Es gibt Muster von Ereignissen in der Art, wie wir schreiben – wir suchen im Allgemeinen nach der einfachsten, kürzesten, am wenigsten aufwendigen und schnellstmöglichen Methode. Die Wahrheit ist also, dass wir immer wieder dieselben einfachen Wörter verwenden.
Als Beispiel stieß ich vor all den Jahren auf einige Statistiken aus einem Experiment, bei dem Wissenschaftler eine 131 MB große Sammlung (damals Big Data) von 46.500 Zeitungsartikeln (19 Millionen Begriffsvorkommen) erstellten.
Hier sind die Daten für die Top-10-Wörter und wie oft sie in diesem Korpus verwendet wurden. Sie werden es ziemlich schnell verstehen, denke ich:
Worthäufigkeit
die: 1130021
von 547311
bis 516635
eine 464736
in 390819
und 387703
das 204351
für 199340
ist 152483
sagte 148302
Denken Sie daran, dass alle im Korpus enthaltenen Artikel von professionellen Journalisten geschrieben wurden. Aber wenn Sie sich die Top Ten der am häufigsten verwendeten Wörter ansehen, könnten Sie kaum einen einzigen vernünftigen Satz daraus machen.
Da diese gebräuchlichen Wörter in der englischen Sprache so häufig vorkommen, werden sie von Suchmaschinen als „Stoppwörter“ ignoriert. Wenn die beliebtesten Wörter, die wir verwenden, keinen großen Wert für ein automatisiertes Indexierungssystem bieten, welche Wörter dann?
Wie bereits erwähnt, wurde viel Arbeit auf dem Gebiet der Informationswiedergewinnungs(IR)-Systeme geleistet. Statistische Ansätze wurden aufgrund der schlechten Passung von Text zu Datenmodellen, die auf formaler Logik basieren (z. B. relationale Datenbanken), weit verbreitet.
Anstatt also zu verlangen, dass Benutzer in der Lage sind, die genauen Wörter und Wortkombinationen vorherzusehen, die in interessierenden Dokumenten vorkommen können, ermöglicht die statistische IR den Benutzern, einfach eine Reihe von Wörtern einzugeben, die wahrscheinlich in einem Dokument erscheinen.
Das System berücksichtigt dann die Häufigkeit dieser Wörter in einer Textsammlung und in einzelnen Dokumenten, um zu bestimmen, welche Wörter wahrscheinlich die besten Hinweise auf Relevanz sind. Für jedes Dokument wird basierend auf den darin enthaltenen Wörtern eine Punktzahl berechnet, und die Dokumente mit der höchsten Punktzahl werden abgerufen.

Ich hatte das Glück, einen führenden Forscher auf dem Gebiet der IR zu interviewen, als ich 2001 selbst für das Buch recherchierte. Andrei Broder war damals Chief Scientist bei Alta Vista (derzeit Distinguished Engineer bei Google), und wir diskutierten über das Thema von „Begriffsvektoren“ und ich fragte, ob er mir eine einfache Erklärung geben könnte, was sie sind.
Er erklärte mir, wie er bei der „Gewichtung“ von Begriffen nach Wichtigkeit im Index feststellen kann, dass das Wort „von“ millionenfach im Korpus vorkommt. Dies ist ein Wort, das überhaupt kein „Gewicht“ bekommen wird, sagte er. Aber wenn er so etwas wie das Wort „Hämoglobin“ sieht, das ein viel selteneres Wort im Korpus ist, dann wird dieses Wort etwas Gewicht bekommen.
Ich möchte hier einen kurzen Schritt zurückgehen, bevor ich erkläre, wie der Index erstellt wird, und einen anderen Mythos zerstreuen, der sich über die Jahre gehalten hat. Und das ist der Punkt, an dem viele Leute glauben, dass Google (und andere Suchmaschinen) Ihre Webseiten tatsächlich herunterladen und auf einer Festplatte speichern.
Nein, überhaupt nicht. Wir haben bereits einen Ort dafür, das heißt World Wide Web.
Ja, Google verwaltet einen „zwischengespeicherten“ Schnappschuss der Seite zum schnellen Abrufen. Aber wenn sich dieser Seiteninhalt ändert, ändert sich beim nächsten Crawlen der Seite auch die zwischengespeicherte Version.
Deshalb finden Sie bei Google niemals Kopien Ihrer alten Webseiten. Dafür ist Ihre einzige wirkliche Ressource das Internetarchiv (alias The Wayback Machine).
Wenn Ihre Seite gecrawlt wird, wird sie tatsächlich demontiert. Der Text wird aus dem Dokument geparst (extrahiert).
Jedes Dokument erhält eine eigene Kennung samt Standortangabe (URL) und die „Rohdaten“ werden an das Indexer-Modul weitergeleitet. Die Wörter/Begriffe werden mit der zugehörigen Dokument-ID gespeichert, in der sie vorkamen.
Hier ist ein sehr einfaches Beispiel mit zwei Dokumenten und dem darin enthaltenen Text, das ich vor 20 Jahren erstellt habe.
Erinnern Sie sich an die Indexkonstruktion

Nachdem alle Dokumente geparst wurden, wird die invertierte Datei nach Begriffen sortiert:

In meinem Beispiel sieht dies zu Beginn des Prozesses ziemlich einfach aus, aber die Einträge (wie sie in der Information Retrieval-Begriffe genannt werden) zum Index gehen jeweils in ein Dokument. Auch hier können Sie sich bei Millionen von Dokumenten vorstellen, wie viel Rechenleistung erforderlich ist, um dies in die massive „Term-Wise-Ansicht“ umzuwandeln, die oben vereinfacht wird, zuerst nach Begriff und dann nach Dokument innerhalb jedes Begriffs.
Sie werden meinen Hinweis auf „Millionen von Dokumenten“ von vor all den Jahren bemerken. Natürlich haben wir es heutzutage mit Milliarden (sogar Billionen) zu tun. In meiner grundlegenden Erklärung, wie der Index erstellt wird, habe ich damit fortgefahren:
Jede Suchmaschine erstellt ihr eigenes benutzerdefiniertes Wörterbuch (oder Lexikon, wie es ist – denken Sie daran, dass viele Webseiten nicht auf Englisch geschrieben sind), das jeden neuen „Begriff“ enthalten muss, der nach einem Crawl entdeckt wird (denken Sie darüber nach, wie dies bei der Verwendung von a Textverarbeitung wie Microsoft Word haben Sie häufig die Möglichkeit, ein Wort zu Ihrem eigenen benutzerdefinierten Wörterbuch hinzuzufügen, dh etwas, das nicht im englischen Standardwörterbuch vorkommt). Sobald die Suchmaschine ihren „großen“ Index hat, sind einige Begriffe wichtiger als andere. Jeder Begriff verdient also sein eigenes Gewicht (Wert). Ein großer Teil des Gewichtungsfaktors hängt vom Begriff selbst ab. Natürlich ist dies ziemlich einfach, wenn Sie darüber nachdenken, also wird einem Wort mit mehr Vorkommen mehr Gewicht gegeben, aber dieses Gewicht wird dann durch die „Seltenheit“ des Begriffs im gesamten Korpus erhöht. Der Indexer kann auch Wörtern, die an bestimmten Stellen im Dokument erscheinen, mehr „Gewicht“ geben. Wörter, die im Titel-Tag <title> erscheinen, sind sehr wichtig. Wörter, die auf der Seite in <h1>-Überschriften-Tags oder in Fettschrift <b> stehen, sind möglicherweise relevanter. Die Wörter, die im Ankertext von Links auf HTML-Seiten oder in deren Nähe erscheinen, werden sicherlich als sehr wichtig angesehen. Wörter, die in <alt>-Text-Tags mit Bildern erscheinen, werden ebenso notiert wie Wörter, die in Meta-Tags erscheinen.
Neben dem Originaltext „Modern Information Retrieval“ des Wissenschaftlers Gerard Salton (der als Vater des modernen Information Retrieval gilt) hatte ich damals eine Reihe anderer Quellen, die das Obige bestätigten. Sowohl Brian Pinkerton als auch Michael Maudlin (Erfinder der Suchmaschinen WebCrawler bzw. Lycos) gaben mir Einzelheiten darüber, wie „der klassische Salton-Ansatz“ verwendet wurde. Und beide machten mich auf die Grenzen aufmerksam.
Nicht nur das, Larry Page und Sergey Brin betonten genau dasselbe in dem Originalpapier, das sie bei der Einführung des Google-Prototyps verfassten. Ich komme darauf zurück, da es wichtig ist, um einen weiteren Mythos zu zerstreuen.
Aber zuerst, hier ist, wie ich den „klassischen Salton-Ansatz“ im Jahr 2002 erklärt habe. Achten Sie darauf, den Hinweis auf „ein Begriffsgewichtspaar“ zu beachten.
Sobald die Suchmaschine ihren „großen Index“ erstellt hat, misst das Indexer-Modul die „Begriffshäufigkeit“ (tf) des Wortes in einem Dokument, um die „Begriffsdichte“ zu erhalten, und misst dann die „inverse Dokumenthäufigkeit“ (idf). ist eine Berechnung der Häufigkeit von Begriffen in einem Dokument; die Gesamtzahl der Dokumente; die Anzahl der Dokumente, die den Begriff enthalten. Mit dieser weiteren Berechnung kann nun jedes Dokument als ein Vektor von tf x idf-Werten (binäre oder numerische Werte, die direkt oder indirekt den Wörtern des Dokuments entsprechen) betrachtet werden. Was Sie dann haben, ist ein Begriffsgewichtspaar. Sie könnten dies folgendermaßen umschreiben: Ein Dokument hat eine gewichtete Liste von Wörtern; ein Wort hat eine gewichtete Liste von Dokumenten (ein Begriffsgewichtungspaar).
Das Vektorraummodell

Da die Docs nun Vektoren mit einer Komponente für jeden Begriff sind, wurde ein „Vektorraum“ geschaffen, in dem alle Docs leben. Aber was sind die Vorteile der Schaffung dieses Universums von Dokumenten, die jetzt alle diese Größenordnung haben?
Wenn Doc 'd' (als Beispiel) ein Vektor ist, ist es auf diese Weise einfach, andere wie ihn zu finden und auch Vektoren in der Nähe zu finden.
Intuitiv können Sie dann feststellen, dass Dokumente, die im Vektorraum eng beieinander liegen, über dieselben Dinge sprechen. Auf diese Weise kann eine Suchmaschine dann ein Clustering von Wörtern oder Dokumenten erstellen und verschiedene andere Gewichtungsmethoden hinzufügen.
Der Hauptvorteil der Verwendung von Begriffsvektoren für Suchmaschinen besteht jedoch darin, dass die Abfragemaschine eine Abfrage selbst als ein sehr kurzes Dokument betrachten kann. Auf diese Weise wird die Abfrage zu einem Vektor im selben Vektorraum und die Abfrage-Engine kann die Nähe jedes Dokuments zu ihm messen.
Das Vektorraummodell ermöglicht es dem Benutzer, die Suchmaschine nach „Konzepten“ statt einer reinen „lexikalischen“ Suche abzufragen. Wie Sie hier sehen können, war schon vor 20 Jahren die Vorstellung von Konzepten und Themen im Gegensatz zu nur Schlüsselwörtern sehr verbreitet.
OK, lassen Sie uns diese Sache mit der „Keyword-Dichte“ angehen. Das Wort „Dichte“ taucht zwar in der Erläuterung der Funktionsweise des Vektorraummodells auf, aber nur, da es sich auf die Berechnung über den gesamten Dokumentenkorpus bezieht – nicht auf eine einzelne Seite. Vielleicht ist es dieser Hinweis, der so viele SEOs dazu veranlasst hat, Keyword-Dichte-Analysatoren auf einzelnen Seiten zu verwenden.
Ich habe im Laufe der Jahre auch festgestellt, dass viele SEOs, die das Vektorraummodell entdecken, dazu neigen, die klassische tf x idf-Begriffsgewichtung anzuwenden. Doch das dürfte vor allem bei Google viel weniger funktionieren, wie die Gründer Larry Page und Sergey Brin in ihrer Originalarbeit zur Funktionsweise von Google feststellten – sie betonen die schlechte Qualität der Ergebnisse bei alleiniger Anwendung des klassischen Modells:
„Zum Beispiel versucht das Standard-Vektorraummodell, das Dokument zurückzugeben, das der Abfrage am nächsten kommt, da sowohl die Abfrage als auch das Dokument Vektoren sind, die durch ihr Wortvorkommen definiert sind. Im Web gibt diese Strategie oft sehr kurze Dokumente zurück, die nur aus der Suchanfrage plus ein paar Wörtern bestehen.“
Es gab viele Varianten, um zu versuchen, die "Starrheit" des Vektorraummodells zu umgehen. Und im Laufe der Jahre mit Fortschritten in der künstlichen Intelligenz und beim maschinellen Lernen gibt es viele Variationen des Ansatzes, mit dem die Gewichtung bestimmter Wörter und Dokumente im Index berechnet werden kann.
Sie könnten Jahre damit verbringen, herauszufinden, welche Formeln eine Suchmaschine verwendet, ganz zu schweigen von Google (obwohl Sie sicher sein können, welche nicht verwendet wird, wie ich gerade betont habe). Wenn Sie dies im Hinterkopf behalten, sollte es also den Mythos zerstreuen, dass der Versuch, die Keyword-Dichte von Webseiten zu manipulieren, wenn Sie sie erstellen, eine etwas verschwendete Anstrengung ist.
Lösung des Überflussproblems
Die erste Generation von Suchmaschinen stützte sich für das Ranking stark auf On-Page-Faktoren.
Aber das Problem, das Sie haben, wenn Sie rein schlüsselwortbasierte Ranking-Techniken verwenden (über das hinaus, was ich gerade vom ersten Tag an über Google erwähnt habe), ist etwas, das als „das Problem der Fülle“ bekannt ist, das davon ausgeht, dass das Web jeden Tag exponentiell wächst und das exponentielle Wachstum von Dokumenten, die dasselbe enthalten Schlüsselwörter.
Und das stellt die Frage auf dieser Folie, die ich seit 2002 verwende:

Sie können davon ausgehen, dass der Orchesterdirigent, der das Stück seit vielen Jahren mit vielen Orchestern arrangiert und spielt, am maßgeblichsten wäre. Aber wenn man nur an Keyword-Ranking-Techniken arbeitet, ist es genauso wahrscheinlich, dass der Musikstudent das Ergebnis Nummer eins sein könnte.
Wie lösen Sie dieses Problem?
Nun, die Antwort ist die Hyperlink-Analyse (alias Backlinks).
In meinem nächsten Teil werde ich erklären, wie das Wort „Autorität“ in das IR- und SEO-Lexikon aufgenommen wurde. Und ich werde auch die ursprüngliche Quelle dessen erklären, was heute als EAT bezeichnet wird, und worauf es tatsächlich basiert.
Bis dahin – bleiben Sie gesund und denken Sie daran, welche Freude es macht, über das Innenleben von Suchmaschinen zu diskutieren!
Die in diesem Artikel geäußerten Meinungen sind die des Gastautors und nicht unbedingt Search Engine Land. Mitarbeiter Autoren sind hier aufgelistet.