ChatGPT para conteúdo e SEO?
Publicados: 2022-12-13O ChatGPT é um chatbot de inteligência artificial que pode receber instruções e realizar tarefas como escrever redações. Existem inúmeras questões a serem entendidas antes de tomar uma decisão sobre como usá-lo para conteúdo e SEO.
A qualidade do conteúdo do ChatGPT é impressionante, portanto, a ideia de usá-lo para fins de SEO deve ser abordada.
Vamos explorar.
Por que o ChatGPT pode fazer o que faz
Em poucas palavras, o ChatGPT é um tipo de aprendizado de máquina chamado Large Learning Model.
Um grande modelo de aprendizado é uma inteligência artificial treinada em grandes quantidades de dados que podem prever qual é a próxima palavra em uma frase.
Quanto mais dados ele for treinado em mais tipos de tarefas ele será capaz de realizar (como escrever artigos).
Às vezes, grandes modelos de linguagem desenvolvem habilidades inesperadas.
A Universidade de Stanford escreve sobre como um aumento nos dados de treinamento permitiu que o GPT-3 traduzisse texto do inglês para o francês, embora não tenha sido especificamente treinado para fazer essa tarefa.
Grandes modelos de linguagem, como GPT-3 (e GPT-3.5, subjacente ao ChatGPT) não são treinados para realizar tarefas específicas.
Eles são treinados com uma ampla gama de conhecimentos que podem aplicar a outros domínios.
Isso é semelhante a como um ser humano aprende. Por exemplo, se um ser humano aprende os fundamentos da carpintaria, ele pode aplicar esse conhecimento para construir uma mesa, mesmo que essa pessoa nunca tenha sido especificamente ensinada a fazê-lo.
O GPT-3 funciona de maneira semelhante ao cérebro humano, pois contém conhecimento geral que pode ser aplicado a várias tarefas.
O artigo da Universidade de Stanford sobre GPT-3 explica:
“Ao contrário dos motores de xadrez, que resolvem um problema específico, os humanos são “geralmente” inteligentes e podem aprender a fazer qualquer coisa, desde escrever poesia a jogar futebol e preencher declarações fiscais.
Em contraste com a maioria dos sistemas de IA atuais, o GPT-3 está se aproximando dessa inteligência geral…”
O ChatGPT incorpora outro grande modelo de linguagem chamado InstructGPT, que foi treinado para receber instruções de humanos e respostas longas a perguntas complexas.
Essa capacidade de seguir as instruções torna o ChatGPT capaz de receber instruções para criar um ensaio sobre praticamente qualquer tópico e fazê-lo da maneira especificada.
Ele pode escrever um ensaio dentro das restrições, como contagem de palavras e inclusão de tópicos específicos.
Seis coisas a saber sobre o ChatGPT
O ChatGPT pode escrever ensaios sobre praticamente qualquer tópico porque é treinado em uma ampla variedade de textos disponíveis ao público em geral.
No entanto, existem limitações no ChatGPT que é importante saber antes de decidir usá-lo em um projeto de SEO.
A maior limitação é que o ChatGPT não é confiável para gerar informações precisas. A razão pela qual é imprecisa é porque o modelo está apenas prevendo quais palavras devem vir depois da palavra anterior em uma frase de um parágrafo sobre um determinado tópico. Não está preocupado com a precisão.
Essa deve ser uma das principais preocupações de qualquer pessoa interessada em criar conteúdo de qualidade.
1. Programado para evitar certos tipos de conteúdo
Por exemplo, o ChatGPT é especificamente programado para não gerar texto sobre os tópicos de violência gráfica, sexo explícito e conteúdo prejudicial, como instruções sobre como construir um dispositivo explosivo.
2. Ignorar os eventos atuais
Outra limitação é que ele não tem conhecimento de nenhum conteúdo criado após 2021.
Portanto, se o seu conteúdo precisa ser atualizado e atualizado, o ChatGPT em sua forma atual pode não ser útil.
3. Possui preconceitos integrados
Uma limitação importante a ter em conta é que é treinado para ser útil, verdadeiro e inofensivo.
Esses não são apenas ideais, são vieses intencionais embutidos na máquina.
Parece que a programação inofensiva faz com que a saída evite a negatividade.
Isso é bom, mas também muda sutilmente o artigo de um que poderia ser idealmente neutro.
Por assim dizer, é preciso assumir o volante e dizer explicitamente ao ChatGPT para dirigir na direção desejada.
Aqui está um exemplo de como o viés altera a saída.
Pedi ao ChatGPT para escrever uma história no estilo de Raymond Carver e outra no estilo do escritor de mistério Raymond Chandler.
Ambas as histórias tiveram finais otimistas que não eram característicos de ambos os escritores.
Para obter uma saída que correspondesse às minhas expectativas, tive que orientar o ChatGPT com instruções detalhadas para evitar finais otimistas e para o final no estilo Carver para evitar uma resolução para a história, porque é assim que as histórias de Raymond Carver costumam se desenrolar.
A questão é que o ChatGPT tem vieses e é preciso estar ciente de como eles podem influenciar a saída.
4. O ChatGPT requer instruções altamente detalhadas
O ChatGPT requer instruções detalhadas para produzir um conteúdo de maior qualidade com maior chance de ser altamente original ou de ter um ponto de vista específico.
Quanto mais instruções forem dadas, mais sofisticada será a saída.
Esta é uma força e uma limitação para estar ciente.
Quanto menos instruções houver na solicitação de conteúdo, maior a probabilidade de a saída compartilhar uma saída semelhante com outra solicitação.
Como teste, copiei a consulta e a saída que várias pessoas postaram no Facebook.
Quando fiz exatamente a mesma pergunta ao ChatGPT, a máquina produziu um ensaio completamente original que seguiu uma estrutura semelhante.
Os artigos eram diferentes, mas compartilhavam a mesma estrutura e abordavam subtópicos semelhantes, mas com palavras 100% diferentes.
O ChatGPT foi projetado para escolher palavras completamente aleatórias ao prever qual deve ser a próxima palavra em um artigo, então faz sentido que ele não se plagie.
Mas o fato de solicitações semelhantes gerarem artigos semelhantes destaca as limitações de simplesmente pedir “me dê isso. ”

5. O conteúdo do ChatGPT pode ser identificado?
Pesquisadores do Google e de outras organizações trabalharam por muitos anos em algoritmos para detectar com sucesso o conteúdo gerado por IA.
Existem muitos trabalhos de pesquisa sobre o assunto e mencionarei um de março de 2022 que usou saída de GPT-2 e GPT-3.
O trabalho de pesquisa é intitulado Robustez adversarial de recursos estatísticos neurais na detecção de transformadores generativos (PDF).
Os pesquisadores estavam testando para ver que tipo de análise poderia detectar o conteúdo gerado por IA que empregava algoritmos projetados para evitar a detecção.
Eles testaram estratégias como o uso de algoritmos BERT para substituir palavras por sinônimos, outro que adicionava erros ortográficos, entre outras estratégias.
O que eles descobriram é que alguns recursos estatísticos do texto gerado por IA, como as pontuações do Índice Gunning-Fog e do Índice Flesch, eram úteis para prever se um texto foi gerado por computador, mesmo que esse texto tivesse usado um algoritmo projetado para evitar a detecção.
6. Marca d'água invisível
Mais interessante é que os pesquisadores da OpenAI desenvolveram marcas d'água criptográficas que ajudarão na detecção de conteúdo criado por meio de um produto OpenAI como o ChatGPT.
Um artigo recente chamou a atenção para uma discussão de um pesquisador da OpenAI que está disponível em um vídeo intitulado Scott Aaronson Talks AI Safety.
O pesquisador afirma que as práticas éticas de IA, como marcas d'água, podem evoluir para se tornar um padrão da indústria da mesma forma que o Robots.txt se tornou um padrão para rastreamento ético.
Ele afirmou:
“…vimos nos últimos 30 anos que as grandes empresas de Internet podem concordar com certos padrões mínimos, seja por medo de ser processado, desejo de ser visto como um participante responsável ou qualquer outra coisa.
Um exemplo simples seria o robots.txt: se você deseja que seu site não seja indexado pelos mecanismos de pesquisa, especifique isso e os principais mecanismos de pesquisa o respeitarão.
De maneira semelhante, você poderia imaginar algo como marca d'água - se pudéssemos demonstrá-lo e mostrar que funciona e que é barato e não prejudica a qualidade da saída e não precisa de muita computação e assim por diante - isso simplesmente se tornaria um padrão da indústria, e qualquer um que quisesse ser considerado um jogador responsável o incluiria.
A marca d'água que o pesquisador desenvolveu é baseada em uma criptografia. Qualquer pessoa que tenha a chave pode testar um documento para ver se ele possui a marca d'água digital que mostra que foi gerado por uma IA.
O código pode estar na forma de como a pontuação é usada ou na escolha de palavras, por exemplo.
Ele explicou como funciona a marca d'água e por que é importante:
“Meu projeto principal até agora tem sido uma ferramenta para marcar estatisticamente as saídas de um modelo de texto como o GPT.
Basicamente, sempre que o GPT gera algum texto longo, queremos que haja um sinal secreto imperceptível em suas escolhas de palavras, que você pode usar para provar mais tarde que, sim, isso veio do GPT.
Queremos que seja muito mais difícil obter uma saída GPT e transmiti-la como se viesse de um ser humano.
Isso pode ser útil para prevenir o plágio acadêmico, obviamente, mas também, por exemplo, a geração em massa de propaganda - você sabe, enviar spam a todos os blogs com comentários aparentemente sobre o assunto apoiando a invasão russa da Ucrânia, sem nem mesmo um prédio cheio de trolls em Moscou.
Ou personificar o estilo de escrita de alguém para incriminá-lo.
Essas são todas as coisas que alguém pode querer tornar mais difíceis, certo?”
O pesquisador compartilhou que a marca d'água derrota os esforços algorítmicos para evitar a detecção.
Mas ele também afirmou que é possível derrotar a marca d'água:
“Agora, tudo isso pode ser derrotado com bastante esforço.
Por exemplo, se você usou outra IA para parafrasear a saída do GPT – tudo bem, não seremos capazes de detectar isso.”
O pesquisador anunciou que o objetivo é lançar a marca d'água em uma versão futura do GPT.
Você deve usar IA para fins de SEO?
O conteúdo de IA é detectável
Muitas pessoas dizem que não há como o Google saber se o conteúdo foi gerado usando IA.
Não consigo entender por que alguém teria essa opinião, porque detectar IA é um problema que já foi resolvido.
Mesmo o conteúdo que implanta algoritmos de antidetecção pode ser detectado (conforme observado no artigo de pesquisa que mencionei acima).
A detecção de conteúdo gerado por máquina tem sido objeto de pesquisa há muitos anos, incluindo pesquisas sobre como detectar conteúdo traduzido de outro idioma.
O conteúdo gerado automaticamente viola as diretrizes do Google
O Google diz que o conteúdo gerado por IA viola as diretrizes do Google. Então é importante ter isso em mente.
ChatGPT pode em algum momento conter uma marca d'água
Por fim, o pesquisador da OpenAI disse (algumas semanas antes do lançamento do ChatGPT) que a marca d'água estava “esperançosamente” chegando na próxima versão do GPT.
Portanto, o ChatGPT pode, em algum momento, ser atualizado com marca d'água, se ainda não tiver marca d'água.
O melhor uso da IA para SEO
O melhor uso das ferramentas de IA é dimensionar o SEO de uma maneira que torne o trabalhador mais produtivo. Isso geralmente consiste em deixar a IA fazer o tedioso trabalho de pesquisa e análise.
Resumir páginas da web para criar uma meta descrição pode ser um uso aceitável, já que o Google diz especificamente que isso não é contra suas diretrizes.
Usar o ChatGPT para gerar um esboço ou resumo de conteúdo pode ser um uso interessante.
Mas entregar a criação de conteúdo para uma IA e publicá-la como está pode não ser o uso mais eficaz da IA por vários motivos, incluindo a possibilidade de ser detectado e fazer com que um site receba uma ação manual (também conhecida como banido).
Imagem em destaque por Shutterstock/Roman Samborskyi
