ChatGPT 用于内容和 SEO?

已发表: 2022-12-13

ChatGPT 是一个人工智能聊天机器人,可以指导并完成诸如撰写论文之类的任务。 在决定如何将其用于内容和 SEO 之前,需要了解许多问题。

ChatGPT 内容的质量令人震惊,因此应该考虑将其用于 SEO 目的的想法。

让我们探索一下。

为什么 ChatGPT 可以做它做的事

简而言之,ChatGPT 是一种称为大型学习模型的机器学习。

大型学习模型是一种人工智能,它根据大量数据进行训练,可以预测句子中的下一个单词是什么。

它接受的训练数据越多,它能够完成的任务种类就越多(比如写文章)。

有时大型语言模型会发展出意想不到的能力。

斯坦福大学写了关于训练数据的增加如何使 GPT-3 能够将文本从英语翻译成法语,即使它没有经过专门的训练来完成这项任务。

像 GPT-3(和 ChatGPT 的基础 GPT-3.5)这样的大型语言模型没有经过训练来执行特定任务。

他们接受了广泛的知识培训,然后可以将这些知识应用于其他领域。

这类似于人类的学习方式。 例如,如果一个人学习了木工基础知识,他们就可以应用这些知识来制作一张桌子,即使这个人从未被专门教过如何去做。

GPT-3 的工作原理类似于人脑,因为它包含可应用于多项任务的常识。

斯坦福大学关于 GPT-3 的文章解释说:

“与解决特定问题的国际象棋引擎不同,人类“通常”是聪明的,可以学习做任何事情,从写诗到踢足球再到报税。

与大多数当前的人工智能系统相比,GPT-3 正在逐渐接近这种通用智能……”

ChatGPT 结合了另一种称为 InstructGPT 的大型语言模型,该模型经过训练可以接受人类的指示和对复杂问题的长格式答案。

这种遵循指令的能力使 ChatGPT 能够按照指令创建关于几乎任何主题的文章,并以任何指定的方式进行。

它可以在字数和包含特定主题点等限制条件下写一篇文章。

关于 ChatGPT 的六件事

ChatGPT 几乎可以就任何主题撰写论文,因为它接受过对公众可用的各种文本的训练。

然而,在决定将其用于 SEO 项目之前,了解 ChatGPT 的局限性很重要。

最大的限制是 ChatGPT 不能可靠地生成准确的信息。 它不准确的原因是因为该模型仅预测在给定主题的段落中的句子中的前一个词之后应该出现哪些词。 它不关心准确性。

对于任何有兴趣创建高质量内容的人来说,这应该是最关心的问题。

1. 编程避免某些类型的内容

例如,ChatGPT 经过专门编程,不会生成有关图形暴力、露骨性行为和有害内容(例如有关如何制造爆炸装置的说明)等主题的文本。

2. 不了解时事

另一个限制是它不知道 2021 年之后创建的任何内容。

因此,如果您的内容需要最新和新鲜,那么当前形式的 ChatGPT 可能没有用。

3.有内在的偏见

需要注意的一个重要限制是,受过训练的人会乐于助人、诚实且无害。

这些不仅仅是理想,它们是机器内置的故意偏见。

似乎无害的编程使输出避免了消极性。

这是一件好事,但它也巧妙地改变了一篇理想情况下可能是中立的文章。

从某种意义上说,人们必须掌控方向盘并明确告诉 ChatGPT 朝所需的方向行驶。

这是偏差如何改变输出的示例。

我让 ChatGPT 以雷蒙德·卡佛 (Raymond Carver) 的风格写一个故事,并以神秘作家雷蒙德·钱德勒 (Raymond Chandler) 的风格写另一个故事。

这两个故事都有乐观的结局,这与两位作家都不一样。

为了获得符合我期望的输出,我必须为 ChatGPT 提供详细的指导,以避免乐观的结局,并为 Carver 风格的结局避免故事的结局,因为雷蒙德卡佛的故事经常如此。

关键是 ChatGPT 有偏差,需要了解它们可能如何影响输出。

4. ChatGPT 需要非常详细的说明

ChatGPT 需要详细的说明才能输出更高质量的内容,这些内容更有可能具有高度原创性或采取特定观点。

给出的指令越多,输出就越复杂。

这既是一种优势,也是一种需要注意的局限性。

内容请求中的指令越少,输出与另一个请求共享相似输出的可能性就越大。

作为测试,我复制了多个人在 Facebook 上发布的查询和输出。

当我向 ChatGPT 询问完全相同的查询时,机器生成了一篇遵循类似结构的完全原创的文章。

这些文章不同,但它们具有相同的结构并涉及相似的子主题,但用词 100% 不同。

ChatGPT 的设计目的是在预测文章中的下一个单词应该是什么时选择完全随机的单词,因此它不会抄袭自己是有道理的。

但是,类似的请求会产生类似的文章,这一事实凸显了简单地询问“给我这个”的局限性。 ”

5. ChatGPT内容能被识别吗?

谷歌和其他组织的研究人员多年来一直致力于成功检测人工智能生成内容的算法。

关于这个主题有很多研究论文,我会提到 2022 年 3 月的一篇使用 GPT-2 和 GPT-3 输出的论文。

该研究论文的标题是,生成变压器检测中神经统计特征的对抗性鲁棒性(PDF)。

研究人员正在测试,看看什么样的分析可以检测到人工智能生成的内容,这些内容采用旨在逃避检测的算法。

他们测试了一些策略,例如使用 BERT 算法将单词替换为同义词,另一种算法添加了拼写错误,以及其他策略。

他们发现,AI 生成的文本的一些统计特征(例如 Gunning-Fog Index 和 Flesch Index 分数)可用于预测文本是否为计算机生成,即使该文本使用了旨在逃避检测的算法。

6.隐形水印

更有趣的是,OpenAI 研究人员开发了加密水印,这将有助于检测通过 ChatGPT 等 OpenAI 产品创建的内容。

最近的一篇文章呼吁关注 OpenAI 研究人员的讨论,该讨论可在名为 Scott Aaronson Talks AI Safety 的视频中找到。

研究人员指出,像 Robots.txt 成为道德爬行标准一样,水印等道德人工智能实践可以发展成为行业标准。

他说:

“……在过去的 30 年里,我们已经看到大型互联网公司可以就某些最低标准达成一致,无论是因为害怕被起诉、希望被视为负责任的参与者,还是其他原因。

一个简单的例子是 robots.txt:如果你希望你的网站不被搜索引擎收录,你可以指定它,主要的搜索引擎会尊重它。

以类似的方式,你可以想象像加水印这样的东西——如果我们能够证明它并证明它有效并且它很便宜并且不会损害输出质量并且不需要太多计算等等——那它只会成为一个行业标准,任何想被视为负责任的参与者的人都会加入它。”

研究人员开发的水印是基于密码学的。 任何拥有密钥的人都可以测试一份文件,看看它是否有数字水印,表明它是由人工智能生成的。

例如,代码可以采用标点符号的使用方式或单词选择的形式。

他解释了加水印的工作原理及其重要性:

“到目前为止,我的主要项目是为 GPT 等文本模型的输出添加统计水印的工具。

基本上,每当 GPT 生成一些长文本时,我们希望在其单词选择中有一个不明显的秘密信号,您可以稍后使用它来证明,是的,这来自 GPT。

我们希望更难获取 GPT 输出并将其传递出去,就好像它来自人类一样。

显然,这可能有助于防止学术剽窃,而且,例如,大规模宣传——你知道,用看似切题的评论向每个博客发送垃圾邮件,支持俄罗斯入侵乌克兰,甚至在莫斯科没有一栋充满巨魔的建筑物。

或冒充某人的写作风格以指控他们。

这些都是人们可能想要变得更难的东西,对吧?”

研究人员表示,水印打败了逃避检测的算法努力。

但他也表示,打败水印是可能的:

“现在,这一切都可以用足够的努力来打败。

例如,如果你使用另一个 AI 来解释 GPT 的输出——好吧,我们将无法检测到这一点。”

研究人员宣布,目标是在 GPT 的未来版本中推出水印。

您应该将 AI 用于 SEO 目的吗?

人工智能内容是可检测的

许多人说,谷歌无法知道内容是否是使用 AI 生成的。

我不明白为什么会有人持有这种观点,因为检测人工智能是一个已经被破解的问题。

甚至可以检测部署反检测算法的内容(如我在上面链接的研究论文中所述)。

检测机器生成的内容多年来一直是研究的主题,包括研究如何检测从另一种语言翻译过来的内容。

自动生成的内容违反了 Google 的准则

谷歌表示,人工智能生成的内容违反了谷歌的指导方针。 所以记住这一点很重要。

ChatGPT 可能在某些时候包含水印

最后,OpenAI 研究人员表示(在 ChatGPT 发布前几周)水印“有望”出现在下一版本的 GPT 中。

因此,如果 ChatGPT 尚未加水印,它可能会在某个时候升级为加水印。

人工智能在 SEO 中的最佳应用

AI 工具的最佳用途是以提高员工工作效率的方式扩展 SEO。 这通常包括让 AI 完成繁琐的研究和分析工作。

总结网页以创建元描述可能是一种可以接受的用途,因为谷歌明确表示这并不违反其指导方针。

使用 ChatGPT 生成大纲或内容简介可能是一个有趣的用途。

但是,将内容创建交给 AI 并按原样发布可能不是 AI 的最有效使用方式,原因有很多,包括它可能被检测到并导致网站收到手动操作(也称为禁止)。

Shutterstock/Roman Samborskyi 的特色图片