ChatGPT per contenuti e SEO?
Pubblicato: 2022-12-13ChatGPT è un chatbot di intelligenza artificiale che può prendere indicazioni e svolgere compiti come scrivere saggi. Ci sono numerosi problemi da capire prima di prendere una decisione su come usarlo per contenuti e SEO.
La qualità dei contenuti di ChatGPT è sbalorditiva, quindi l'idea di utilizzarli per scopi SEO dovrebbe essere affrontata.
Esploriamo.
Perché ChatGPT può fare quello che fa
In poche parole, ChatGPT è un tipo di machine learning chiamato Large Learning Model.
Un grande modello di apprendimento è un'intelligenza artificiale addestrata su grandi quantità di dati in grado di prevedere qual è la parola successiva in una frase.
Più dati viene addestrato su più tipi di attività è in grado di svolgere (come scrivere articoli).
A volte i modelli linguistici di grandi dimensioni sviluppano abilità inaspettate.
La Stanford University scrive di come un aumento dei dati di addestramento abbia consentito a GPT-3 di tradurre il testo dall'inglese al francese, anche se non era specificamente addestrato per svolgere tale compito.
I modelli di linguaggio di grandi dimensioni come GPT-3 (e GPT-3.5 che è alla base di ChatGPT) non sono addestrati per svolgere attività specifiche.
Sono formati con una vasta gamma di conoscenze che possono poi applicare ad altri domini.
Questo è simile a come un essere umano impara. Ad esempio, se un essere umano apprende i fondamenti della falegnameria, può applicare tale conoscenza per costruire un tavolo anche se a quella persona non è mai stato insegnato specificamente come farlo.
GPT-3 funziona in modo simile a un cervello umano in quanto contiene conoscenze generali che possono essere applicate a più attività.
L'articolo della Stanford University su GPT-3 spiega:
“A differenza dei motori scacchistici, che risolvono un problema specifico, gli esseri umani sono “generalmente” intelligenti e possono imparare a fare qualsiasi cosa, dallo scrivere poesie al giocare a calcio, fino alla dichiarazione dei redditi.
Contrariamente alla maggior parte dei sistemi di intelligenza artificiale attuali, GPT-3 si sta avvicinando a tale intelligenza generale…”
ChatGPT incorpora un altro modello di linguaggio di grandi dimensioni chiamato InstructGPT, che è stato addestrato per prendere indicazioni dagli umani e risposte di lunga durata a domande complesse.
Questa capacità di seguire le istruzioni rende ChatGPT in grado di prendere istruzioni per creare un saggio praticamente su qualsiasi argomento e farlo in qualsiasi modo specificato.
Può scrivere un saggio all'interno dei vincoli come il conteggio delle parole e l'inclusione di punti tematici specifici.
Sei cose da sapere su ChatGPT
ChatGPT può scrivere saggi praticamente su qualsiasi argomento perché è formato su un'ampia varietà di testi disponibili al pubblico in generale.
Esistono tuttavia limitazioni a ChatGPT che è importante conoscere prima di decidere di utilizzarlo in un progetto SEO.
La più grande limitazione è che ChatGPT non è affidabile per la generazione di informazioni accurate. Il motivo per cui è impreciso è perché il modello prevede solo quali parole dovrebbero venire dopo la parola precedente in una frase in un paragrafo su un determinato argomento. Non si tratta di precisione.
Questa dovrebbe essere una delle principali preoccupazioni per chiunque sia interessato a creare contenuti di qualità.
1. Programmato per evitare determinati tipi di contenuti
Ad esempio, ChatGPT è specificamente programmato per non generare testo su argomenti di violenza esplicita, sesso esplicito e contenuti dannosi come le istruzioni su come costruire un ordigno esplosivo.
2. Ignaro degli eventi in corso
Un'altra limitazione è che non è a conoscenza di alcun contenuto creato dopo il 2021.
Quindi, se i tuoi contenuti devono essere aggiornati e freschi, ChatGPT nella sua forma attuale potrebbe non essere utile.
3. Ha pregiudizi incorporati
Un'importante limitazione di cui essere consapevoli è che è addestrato per essere utile, veritiero e innocuo.
Questi non sono solo ideali, sono pregiudizi intenzionali incorporati nella macchina.
Sembra che la programmazione per essere innocua faccia sì che l'output eviti la negatività.
Questa è una buona cosa, ma cambia anche sottilmente l'articolo da uno che idealmente potrebbe essere neutrale.
In un certo senso bisogna prendere il volante e dire esplicitamente a ChatGPT di guidare nella direzione desiderata.
Ecco un esempio di come il bias cambia l'output.
Ho chiesto a ChatGPT di scrivere una storia nello stile di Raymond Carver e un'altra nello stile dello scrittore di gialli Raymond Chandler.
Entrambe le storie hanno avuto finali allegri che erano insoliti per entrambi gli scrittori.
Per ottenere un risultato che corrispondesse alle mie aspettative, ho dovuto guidare ChatGPT con indicazioni dettagliate per evitare finali allegri e per il finale in stile Carver per evitare una risoluzione della storia perché è così che spesso si svolgevano le storie di Raymond Carver.
Il punto è che ChatGPT ha pregiudizi e che bisogna essere consapevoli di come potrebbero influenzare l'output.
4. ChatGPT richiede istruzioni altamente dettagliate
ChatGPT richiede istruzioni dettagliate per produrre un contenuto di qualità superiore che abbia maggiori possibilità di essere altamente originale o assumere un punto di vista specifico.
Più istruzioni vengono fornite, più sofisticato sarà l'output.
Questo è sia un punto di forza che un limite di cui essere consapevoli.
Meno istruzioni ci sono nella richiesta di contenuto, più è probabile che l'output condivida un output simile con un'altra richiesta.
Come test, ho copiato la query e l'output che più persone hanno pubblicato su Facebook.
Quando ho posto a ChatGPT la stessa identica domanda, la macchina ha prodotto un saggio completamente originale che seguiva una struttura simile.
Gli articoli erano diversi ma condividevano la stessa struttura e toccavano argomenti secondari simili ma con parole diverse al 100%.
ChatGPT è progettato per scegliere parole completamente casuali quando prevede quale dovrebbe essere la parola successiva in un articolo, quindi ha senso che non si plagi.
Ma il fatto che richieste simili generino articoli simili evidenzia i limiti del semplice chiedere “dammi questo. "
5. È possibile identificare il contenuto di ChatGPT?
I ricercatori di Google e di altre organizzazioni hanno lavorato per molti anni su algoritmi per rilevare con successo i contenuti generati dall'intelligenza artificiale.

Esistono molti documenti di ricerca sull'argomento e ne citerò uno del marzo 2022 che utilizzava l'output di GPT-2 e GPT-3.
Il documento di ricerca è intitolato, Adversarial Robustness of Neural-Statistical Features in Detection of Generative Transformers (PDF).
I ricercatori stavano testando per vedere quale tipo di analisi potesse rilevare i contenuti generati dall'intelligenza artificiale che utilizzavano algoritmi progettati per eludere il rilevamento.
Hanno testato strategie come l'utilizzo di algoritmi BERT per sostituire le parole con sinonimi, un altro che ha aggiunto errori di ortografia, tra le altre strategie.
Quello che hanno scoperto è che alcune caratteristiche statistiche del testo generato dall'intelligenza artificiale come i punteggi Gunning-Fog Index e Flesch Index erano utili per prevedere se un testo fosse generato dal computer, anche se quel testo aveva utilizzato un algoritmo progettato per eludere il rilevamento.
6. Filigrana invisibile
Di maggiore interesse è che i ricercatori OpenAI hanno sviluppato watermark crittografici che aiuteranno a rilevare i contenuti creati attraverso un prodotto OpenAI come ChatGPT.
Un recente articolo ha richiamato l'attenzione su una discussione di un ricercatore OpenAI disponibile in un video intitolato Scott Aaronson Talks AI Safety.
Il ricercatore afferma che le pratiche di intelligenza artificiale etica come il watermarking possono evolversi fino a diventare uno standard del settore nel modo in cui Robots.txt è diventato uno standard per il crawling etico.
Ha dichiarato:
“...negli ultimi 30 anni abbiamo visto che le grandi società di Internet possono accordarsi su alcuni standard minimi, sia per paura di essere denunciati, sia per il desiderio di essere visti come un giocatore responsabile, o per qualsiasi altra cosa.
Un semplice esempio potrebbe essere robots.txt: se vuoi che il tuo sito web non venga indicizzato dai motori di ricerca, puoi specificarlo e i principali motori di ricerca lo rispetteranno.
In modo simile, potresti immaginare qualcosa come il watermarking, se fossimo in grado di dimostrarlo e mostrare che funziona e che è economico e non danneggia la qualità dell'output e non richiede molto calcolo e così via, che diventerebbe solo uno standard del settore e chiunque volesse essere considerato un giocatore responsabile lo includerebbe.
La filigrana sviluppata dal ricercatore si basa su una crittografia. Chiunque abbia la chiave può testare un documento per vedere se ha la filigrana digitale che mostra che è stato generato da un'intelligenza artificiale.
Il codice può essere sotto forma di come viene utilizzata la punteggiatura o nella scelta delle parole, per esempio.
Ha spiegato come funziona la filigrana e perché è importante:
“Il mio progetto principale finora è stato uno strumento per filigranare statisticamente gli output di un modello di testo come GPT.
Fondamentalmente, ogni volta che GPT genera un testo lungo, vogliamo che ci sia un segnale segreto altrimenti impercettibile nelle sue scelte di parole, che puoi usare per dimostrare in seguito che, sì, questo proviene da GPT.
Vogliamo che sia molto più difficile prendere un output GPT e farlo passare come se provenisse da un essere umano.
Questo potrebbe essere utile per prevenire il plagio accademico, ovviamente, ma anche, ad esempio, la generazione di massa di propaganda—sai, spammare ogni blog con commenti apparentemente sull'argomento a sostegno dell'invasione russa dell'Ucraina, senza nemmeno un edificio pieno di troll a Mosca.
O impersonare lo stile di scrittura di qualcuno per incriminarlo.
Queste sono tutte cose che si potrebbero voler rendere più difficili, giusto?
Il ricercatore ha condiviso che la filigrana sconfigge gli sforzi algoritmici per eludere il rilevamento.
Ma ha anche affermato che è possibile sconfiggere la filigrana:
“Ora, tutto questo può essere sconfitto con uno sforzo sufficiente.
Ad esempio, se hai utilizzato un'altra intelligenza artificiale per parafrasare l'output di GPT, va bene, non saremo in grado di rilevarlo".
Il ricercatore ha annunciato che l'obiettivo è implementare la filigrana in una versione futura di GPT.
Dovresti usare l'intelligenza artificiale per scopi SEO?
Il contenuto AI è rilevabile
Molte persone affermano che Google non ha modo di sapere se i contenuti sono stati generati utilizzando l'intelligenza artificiale.
Non riesco a capire perché qualcuno dovrebbe sostenere questa opinione perché rilevare l'IA è un problema che è già stato risolto.
Anche i contenuti che implementano algoritmi anti-rilevamento possono essere rilevati (come notato nel documento di ricerca che ho collegato sopra).
Il rilevamento di contenuti generati dalla macchina è stato oggetto di ricerche che risalgono a molti anni fa, inclusa la ricerca su come rilevare i contenuti tradotti da un'altra lingua.
I contenuti generati automaticamente violano le linee guida di Google
Google afferma che i contenuti generati dall'intelligenza artificiale violano le linee guida di Google. Quindi è importante tenerlo a mente.
ChatGPT potrebbe a un certo punto contenere una filigrana
Infine, il ricercatore di OpenAI ha affermato (poche settimane prima del rilascio di ChatGPT) che il watermarking "si spera" sarebbe arrivato nella prossima versione di GPT.
Quindi ChatGPT potrebbe a un certo punto essere aggiornato con la filigrana, se non è già filigranata.
Il miglior uso dell'intelligenza artificiale per la SEO
Il miglior utilizzo degli strumenti di intelligenza artificiale è per ridimensionare la SEO in modo da rendere un lavoratore più produttivo. Ciò di solito consiste nel lasciare che l'IA faccia il noioso lavoro di ricerca e analisi.
Riepilogare le pagine Web per creare una meta descrizione potrebbe essere un uso accettabile, poiché Google afferma specificamente che non è contrario alle sue linee guida.
L'utilizzo di ChatGPT per generare uno schema o un riepilogo dei contenuti potrebbe essere un uso interessante.
Ma affidare la creazione di contenuti a un'IA e pubblicarli così com'è potrebbe non essere l'uso più efficace dell'IA per molte ragioni, inclusa la possibilità che venga rilevata e che un sito riceva un'azione manuale (ovvero bannato).
Immagine in primo piano di Shutterstock/Roman Samborskyi
