ChatGPT für Inhalt und SEO?

Veröffentlicht: 2022-12-13

ChatGPT ist ein Chatbot mit künstlicher Intelligenz, der Anweisungen entgegennehmen und Aufgaben wie das Schreiben von Aufsätzen erledigen kann. Es gibt zahlreiche Probleme zu verstehen, bevor Sie eine Entscheidung darüber treffen, wie Sie es für Inhalte und SEO verwenden.

Die Qualität der ChatGPT-Inhalte ist erstaunlich, daher sollte die Idee, sie für SEO-Zwecke zu verwenden, angesprochen werden.

Lass uns erforschen.

Warum ChatGPT tun kann, was es tut

Kurz gesagt, ChatGPT ist eine Art maschinelles Lernen, das als großes Lernmodell bezeichnet wird.

Ein großes Lernmodell ist eine künstliche Intelligenz, die mit riesigen Datenmengen trainiert wird und vorhersagen kann, was das nächste Wort in einem Satz ist.

Je mehr Daten es trainiert, desto mehr Arten von Aufgaben kann es erfüllen (wie das Schreiben von Artikeln).

Manchmal entwickeln große Sprachmodelle unerwartete Fähigkeiten.

Die Stanford University schreibt darüber, wie eine Zunahme der Trainingsdaten es GPT-3 ermöglichte, Text aus dem Englischen ins Französische zu übersetzen, obwohl es nicht speziell für diese Aufgabe ausgebildet war.

Große Sprachmodelle wie GPT-3 (und GPT-3.5, das ChatGPT zugrunde liegt) sind nicht darauf trainiert, bestimmte Aufgaben auszuführen.

Sie werden mit einem breiten Wissensspektrum geschult, das sie dann auf andere Bereiche anwenden können.

Dies ist ähnlich wie ein Mensch lernt. Wenn ein Mensch zum Beispiel die Grundlagen des Zimmerhandwerks lernt, kann er dieses Wissen anwenden, um einen Tisch zu bauen, obwohl dieser Person nie speziell beigebracht wurde, wie man das macht.

GPT-3 funktioniert ähnlich wie ein menschliches Gehirn, da es allgemeines Wissen enthält, das auf mehrere Aufgaben angewendet werden kann.

Der Artikel der Stanford University über GPT-3 erklärt:

„Im Gegensatz zu Schach-Engines, die ein bestimmtes Problem lösen, sind Menschen „allgemein“ intelligent und können alles lernen, vom Gedichteschreiben über Fußballspielen bis hin zum Einreichen von Steuererklärungen.

Im Gegensatz zu den meisten aktuellen KI-Systemen nähert sich GPT-3 einer solchen allgemeinen Intelligenz an …“

ChatGPT enthält ein weiteres großes Sprachmodell namens InstructGPT, das darauf trainiert wurde, Anweisungen von Menschen zu übernehmen und Antworten auf komplexe Fragen in Langform zu geben.

Diese Fähigkeit, Anweisungen zu befolgen, versetzt ChatGPT in die Lage, Anweisungen zum Erstellen eines Aufsatzes zu praktisch jedem Thema entgegenzunehmen und dies auf jede festgelegte Weise zu tun.

Es kann einen Aufsatz innerhalb der Einschränkungen wie Wortzahl und Einbeziehung bestimmter Themenpunkte schreiben.

Sechs Dinge, die Sie über ChatGPT wissen sollten

ChatGPT kann Essays zu praktisch jedem Thema schreiben, da es mit einer Vielzahl von Texten trainiert wird, die der allgemeinen Öffentlichkeit zur Verfügung stehen.

Es gibt jedoch Einschränkungen für ChatGPT, die Sie kennen sollten, bevor Sie sich entscheiden, es in einem SEO-Projekt einzusetzen.

Die größte Einschränkung besteht darin, dass ChatGPT beim Generieren genauer Informationen unzuverlässig ist. Der Grund dafür ist, dass das Modell nur vorhersagt, welche Wörter in einem Absatz zu einem bestimmten Thema nach dem vorherigen Wort in einem Satz stehen sollten. Auf Genauigkeit kommt es nicht an.

Das sollte ein Hauptanliegen für alle sein, die daran interessiert sind, qualitativ hochwertige Inhalte zu erstellen.

1. Programmiert, um bestimmte Arten von Inhalten zu vermeiden

Beispielsweise ist ChatGPT speziell darauf programmiert, keinen Text zu den Themen drastische Gewalt, expliziten Sex und schädliche Inhalte wie Anweisungen zum Bau eines Sprengsatzes zu generieren.

2. Aktuelle Ereignisse nicht kennen

Eine weitere Einschränkung besteht darin, dass ihm keine Inhalte bekannt sind, die nach 2021 erstellt wurden.

Wenn Ihre Inhalte also aktuell und frisch sein müssen, ist ChatGPT in seiner aktuellen Form möglicherweise nicht nützlich.

3. Hat eingebaute Vorurteile

Eine wichtige Einschränkung, derer man sich bewusst sein sollte, ist, dass man darauf trainiert ist, hilfreich, ehrlich und harmlos zu sein.

Das sind nicht nur Ideale, sondern absichtliche Vorurteile, die in die Maschine eingebaut sind.

Es scheint, als ob die Programmierung harmlos ist und die Ausgabe Negativität vermeidet.

Das ist gut so, aber es verändert den Artikel auch subtil von einem, der idealerweise neutral sein könnte.

Man muss sich gewissermaßen ans Steuer setzen und ChatGPT explizit sagen, in die gewünschte Richtung zu fahren.

Hier ist ein Beispiel dafür, wie die Vorspannung die Ausgabe ändert.

Ich habe ChatGPT gebeten, eine Geschichte im Stil von Raymond Carver und eine weitere im Stil des Mystery-Autors Raymond Chandler zu schreiben.

Beide Geschichten hatten ein fröhliches Ende, das für beide Autoren untypisch war.

Um eine Ausgabe zu erhalten, die meinen Erwartungen entsprach, musste ich ChatGPT mit detaillierten Anweisungen anleiten, um fröhliche Enden zu vermeiden, und für das Ende im Carver-Stil, um eine Auflösung der Geschichte zu vermeiden, denn so spielten sich die Geschichten von Raymond Carver oft ab.

Der Punkt ist, dass ChatGPT Vorurteile hat und dass man sich darüber im Klaren sein muss, wie sie die Ausgabe beeinflussen könnten.

4. ChatGPT erfordert sehr detaillierte Anweisungen

ChatGPT erfordert detaillierte Anweisungen, um qualitativ hochwertigere Inhalte auszugeben, die eine größere Chance haben, sehr originell zu sein oder einen bestimmten Standpunkt einzunehmen.

Je mehr Anweisungen gegeben werden, desto ausgefeilter wird die Ausgabe.

Dies ist sowohl eine Stärke als auch eine Einschränkung, derer man sich bewusst sein sollte.

Je weniger Anweisungen in der Inhaltsanforderung enthalten sind, desto wahrscheinlicher ist es, dass die Ausgabe eine ähnliche Ausgabe mit einer anderen Anforderung teilt.

Als Test habe ich die Abfrage und die Ausgabe kopiert, über die mehrere Personen auf Facebook gepostet haben.

Als ich ChatGPT genau dieselbe Frage stellte, produzierte die Maschine einen völlig originellen Aufsatz, der einer ähnlichen Struktur folgte.

Die Artikel waren unterschiedlich, aber sie hatten dieselbe Struktur und berührten ähnliche Unterthemen, aber mit 100 % unterschiedlichen Wörtern.

ChatGPT ist so konzipiert, dass es völlig zufällige Wörter auswählt, wenn es vorhersagt, was das nächste Wort in einem Artikel sein sollte, daher ist es sinnvoll, dass es sich nicht selbst plagiiert.

Aber die Tatsache, dass ähnliche Anfragen ähnliche Artikel hervorbringen, unterstreicht die Grenzen der einfachen Frage „Gib mir das. ”

5. Können ChatGPT-Inhalte identifiziert werden?

Forscher bei Google und anderen Organisationen arbeiten seit vielen Jahren an Algorithmen zur erfolgreichen Erkennung von KI-generierten Inhalten.

Es gibt viele Forschungsarbeiten zu diesem Thema, und ich nenne eine vom März 2022, die Ergebnisse von GPT-2 und GPT-3 verwendet.

Das Forschungspapier trägt den Titel Adversarial Robustness of Neural-Statistical Features in Detection of Generative Transformers (PDF).

Die Forscher testeten, welche Art von Analyse KI-generierte Inhalte erkennen könnte, die Algorithmen verwendeten, die entwickelt wurden, um der Erkennung zu entgehen.

Sie testeten unter anderem Strategien wie die Verwendung von BERT-Algorithmen zum Ersetzen von Wörtern durch Synonyme, eine andere, die Rechtschreibfehler hinzufügte.

Sie entdeckten, dass einige statistische Merkmale des von der KI generierten Textes wie der Gunning-Fog-Index und der Flesch-Index-Score nützlich waren, um vorherzusagen, ob ein Text computergeneriert war, selbst wenn dieser Text einen Algorithmus verwendet hatte, der entwickelt wurde, um der Erkennung zu entgehen.

6. Unsichtbares Wasserzeichen

Interessanter ist, dass OpenAI-Forscher kryptografische Wasserzeichen entwickelt haben, die bei der Erkennung von Inhalten helfen, die durch ein OpenAI-Produkt wie ChatGPT erstellt wurden.

Ein kürzlich erschienener Artikel machte auf eine Diskussion eines OpenAI-Forschers aufmerksam, die in einem Video mit dem Titel „Scott Aaronson Talks AI Safety“ verfügbar ist.

Der Forscher erklärt, dass sich ethische KI-Praktiken wie Wasserzeichen zu einem Industriestandard entwickeln können, so wie Robots.txt zu einem Standard für ethisches Crawling wurde.

Er erklärte:

„…wir haben in den letzten 30 Jahren gesehen, dass sich die großen Internetkonzerne auf bestimmte Mindeststandards einigen können, sei es aus Angst vor Klagen, dem Wunsch, als verantwortungsbewusster Akteur wahrgenommen zu werden oder was auch immer.

Ein einfaches Beispiel wäre die robots.txt: Wenn Sie möchten, dass Ihre Website nicht von Suchmaschinen indexiert wird, können Sie dies angeben, und die großen Suchmaschinen werden dies respektieren.

Auf ähnliche Weise könnten Sie sich so etwas wie Wasserzeichen vorstellen – wenn wir es demonstrieren und zeigen könnten, dass es funktioniert und dass es billig ist und die Qualität der Ausgabe nicht beeinträchtigt und nicht viel Rechenleistung benötigt und so weiter – das es würde einfach zu einem Industriestandard werden, und jeder, der als verantwortungsvoller Akteur gelten wollte, würde es aufnehmen.“

Das von den Forschern entwickelte Wasserzeichen basiert auf einer Kryptografie. Jeder, der den Schlüssel hat, kann ein Dokument testen, um zu sehen, ob es das digitale Wasserzeichen hat, das zeigt, dass es von einer KI generiert wurde.

Der Code kann beispielsweise in Form der Verwendung von Satzzeichen oder in der Wortwahl vorliegen.

Er erklärte, wie Wasserzeichen funktionieren und warum sie wichtig sind:

„Mein Hauptprojekt war bisher ein Tool zum statistischen Versehen der Ausgaben eines Textmodells wie GPT mit Wasserzeichen.

Grundsätzlich möchten wir, dass jedes Mal, wenn GPT einen langen Text generiert, ein ansonsten unmerkliches geheimes Signal in seiner Wortwahl vorhanden ist, mit dem Sie später beweisen können, dass dies von GPT stammt.

Wir möchten, dass es viel schwieriger wird, eine GPT-Ausgabe zu nehmen und weiterzugeben, als ob sie von einem Menschen stammt.

Dies könnte natürlich hilfreich sein, um akademisches Plagiat zu verhindern, aber auch zum Beispiel Massenproduktion von Propaganda – Sie wissen schon, jeden Blog mit scheinbar themenbezogenen Kommentaren zuzuspammen, die Russlands Invasion in der Ukraine unterstützen, ohne auch nur ein Gebäude voller Trolle in Moskau zu haben.

Oder den Schreibstil einer Person nachahmen, um sie zu belasten.

Das sind alles Dinge, die man vielleicht schwieriger machen möchte, oder?“

Der Forscher teilte mit, dass Wasserzeichen algorithmische Bemühungen zur Umgehung der Erkennung zunichte machen.

Aber er erklärte auch, dass es möglich ist, das Wasserzeichen zu umgehen:

„Nun, das kann alles mit genügend Anstrengung besiegt werden.

Wenn Sie beispielsweise eine andere KI verwendet haben, um die Ausgabe von GPT zu paraphrasieren – nun gut, wir werden das nicht erkennen können.“

Der Forscher kündigte an, dass das Ziel darin besteht, Wasserzeichen in einer zukünftigen Version von GPT einzuführen.

Sollten Sie KI für SEO-Zwecke verwenden?

KI-Inhalte sind nachweisbar

Viele Leute sagen, dass Google nicht wissen kann, ob Inhalte mit KI erstellt wurden.

Ich kann nicht verstehen, warum jemand diese Meinung vertritt, denn das Erkennen von KI ist ein Problem, das bereits geknackt wurde.

Sogar Inhalte, die Anti-Erkennungsalgorithmen einsetzen, können erkannt werden (wie in dem oben verlinkten Forschungsbericht erwähnt).

Das Erkennen von maschinengenerierten Inhalten ist seit vielen Jahren Gegenstand der Forschung, einschließlich der Forschung darüber, wie Inhalte erkannt werden können, die aus einer anderen Sprache übersetzt wurden.

Automatisch generierte Inhalte verstoßen gegen die Richtlinien von Google

Laut Google verstößt KI-generierter Inhalt gegen die Google-Richtlinien. Es ist also wichtig, das im Hinterkopf zu behalten.

ChatGPT kann irgendwann ein Wasserzeichen enthalten

Schließlich sagte der OpenAI-Forscher (einige Wochen vor der Veröffentlichung von ChatGPT), dass Wasserzeichen „hoffentlich“ in der nächsten Version von GPT kommen würden.

Daher kann ChatGPT irgendwann mit Wasserzeichen aufgerüstet werden, wenn es nicht bereits mit Wasserzeichen versehen ist.

Die beste Nutzung von KI für SEO

Die beste Verwendung von KI-Tools besteht darin, SEO so zu skalieren, dass Mitarbeiter produktiver werden. Das besteht normalerweise darin, die KI die mühsame Arbeit der Recherche und Analyse erledigen zu lassen.

Das Zusammenfassen von Webseiten zum Erstellen einer Meta-Beschreibung könnte eine akzeptable Verwendung sein, da Google ausdrücklich sagt, dass dies nicht gegen seine Richtlinien verstößt.

Die Verwendung von ChatGPT zum Generieren einer Gliederung oder einer Inhaltsangabe könnte eine interessante Verwendung sein.

Aber die Erstellung von Inhalten an eine KI zu übergeben und sie so zu veröffentlichen, wie sie ist, ist aus vielen Gründen möglicherweise nicht die effektivste Verwendung von KI, einschließlich der Möglichkeit, dass sie entdeckt wird und dazu führt, dass eine Website eine manuelle Aktion (auch bekannt als gesperrt) erhält.

Ausgewähltes Bild von Shutterstock/Roman Samborskyi