ChatGPT 用於內容和 SEO?

已發表: 2022-12-13

ChatGPT 是一個人工智能聊天機器人,可以指導並完成諸如撰寫論文之類的任務。 在決定如何將其用於內容和 SEO 之前,需要了解許多問題。

ChatGPT 內容的質量令人震驚,因此應該考慮將其用於 SEO 目的的想法。

讓我們探索一下。

為什麼 ChatGPT 可以做它做的事

簡而言之,ChatGPT 是一種稱為大型學習模型的機器學習。

大型學習模型是一種人工智能,它根據大量數據進行訓練,可以預測句子中的下一個單詞是什麼。

它接受的訓練數據越多,它能夠完成的任務種類就越多(比如寫文章)。

有時大型語言模型會發展出意想不到的能力。

斯坦福大學寫了關於訓練數據的增加如何使 GPT-3 能夠將文本從英語翻譯成法語,即使它沒有經過專門的訓練來完成這項任務。

像 GPT-3(和 ChatGPT 的基礎 GPT-3.5)這樣的大型語言模型沒有經過訓練來執行特定任務。

他們接受了廣泛的知識培訓,然後可以將這些知識應用於其他領域。

這類似於人類的學習方式。 例如,如果一個人學習了木工基礎知識,他們就可以應用這些知識來製作一張桌子,即使這個人從未被專門教過如何去做。

GPT-3 的工作原理類似於人腦,因為它包含可應用於多項任務的常識。

斯坦福大學關於 GPT-3 的文章解釋說:

“與解決特定問題的國際象棋引擎不同,人類“通常”是聰明的,可以學習做任何事情,從寫詩到踢足球再到報稅。

與大多數當前的人工智能係統相比,GPT-3 正在逐漸接近這種通用智能……”

ChatGPT 結合了另一種稱為 InstructGPT 的大型語言模型,該模型經過訓練可以接受人類的指示和對複雜問題的長格式答案。

這種遵循指令的能力使 ChatGPT 能夠按照指令創建關於幾乎任何主題的文章,並以任何指定的方式進行。

它可以在字數和包含特定主題點等限制條件下寫一篇文章。

關於 ChatGPT 的六件事

ChatGPT 幾乎可以就任何主題撰寫論文,因為它接受過對公眾可用的各種文本的訓練。

然而,在決定將其用於 SEO 項目之前,了解 ChatGPT 的局限性很重要。

最大的限制是 ChatGPT 不能可靠地生成準確的信息。 它不准確的原因是因為該模型僅預測在給定主題的段落中的句子中的前一個詞之後應該出現哪些詞。 它不關心準確性。

對於任何有興趣創建高質量內容的人來說,這應該是最關心的問題。

1. 編程避免某些類型的內容

例如,ChatGPT 經過專門編程,不會生成有關圖形暴力、露骨性行為和有害內容(例如有關如何製造爆炸裝置的說明)等主題的文本。

2. 不了解時事

另一個限制是它不知道 2021 年之後創建的任何內容。

因此,如果您的內容需要最新和新鮮,那麼當前形式的 ChatGPT 可能沒有用。

3.有內在的偏見

需要注意的一個重要限制是,受過訓練的人會樂於助人、誠實且無害。

這些不僅僅是理想,它們是機器內置的故意偏見。

似乎無害的編程使輸出避免了消極性。

這是一件好事,但它也巧妙地改變了一篇理想情況下可能是中立的文章。

從某種意義上說,人們必須掌控方向盤並明確告訴 ChatGPT 朝所需的方向行駛。

這是偏差如何改變輸出的示例。

我讓 ChatGPT 以雷蒙德·卡佛 (Raymond Carver) 的風格寫一個故事,並以神秘作家雷蒙德·錢德勒 (Raymond Chandler) 的風格寫另一個故事。

這兩個故事都有樂觀的結局,這與兩位作家都不一樣。

為了獲得符合我期望的輸出,我必須為 ChatGPT 提供詳細的指導,以避免樂觀的結局,並為 Carver 風格的結局避免故事的結局,因為雷蒙德卡佛的故事經常如此。

關鍵是 ChatGPT 有偏差,需要了解它們可能如何影響輸出。

4. ChatGPT 需要非常詳細的說明

ChatGPT 需要詳細的說明才能輸出更高質量的內容,這些內容更有可能具有高度原創性或採取特定觀點。

給出的指令越多,輸出就越複雜。

這既是一種優勢,也是一種需要注意的局限性。

內容請求中的指令越少,輸出與另一個請求共享相似輸出的可能性就越大。

作為測試,我複制了多個人在 Facebook 上發布的查詢和輸出。

當我向 ChatGPT 詢問完全相同的查詢時,機器生成了一篇遵循類似結構的完全原創的文章。

這些文章不同,但它們具有相同的結構並涉及相似的子主題,但用詞 100% 不同。

ChatGPT 的設計目的是在預測文章中的下一個單詞應該是什麼時選擇完全隨機的單詞,因此它不會抄襲自己是有道理的。

但是,類似的請求會產生類似的文章,這一事實凸顯了簡單地詢問“給我這個”的局限性。 ”

5. ChatGPT內容能被識別嗎?

谷歌和其他組織的研究人員多年來一直致力於成功檢測人工智能生成內容的算法。

關於這個主題有很多研究論文,我會提到 2022 年 3 月的一篇使用 GPT-2 和 GPT-3 輸出的論文。

該研究論文的標題是,生成變壓器檢測中神經統計特徵的對抗性魯棒性(PDF)。

研究人員正在測試,看看什麼樣的分析可以檢測到人工智能生成的內容,這些內容採用旨在逃避檢測的算法。

他們測試了一些策略,例如使用 BERT 算法將單詞替換為同義詞,另一種算法添加了拼寫錯誤,以及其他策略。

他們發現,AI 生成的文本的一些統計特徵(例如 Gunning-Fog Index 和 Flesch Index 分數)可用於預測文本是否為計算機生成,即使該文本使用了旨在逃避檢測的算法。

6.隱形水印

更有趣的是,OpenAI 研究人員開發了加密水印,這將有助於檢測通過 ChatGPT 等 OpenAI 產品創建的內容。

最近的一篇文章呼籲關注 OpenAI 研究人員的討論,該討論可在名為 Scott Aaronson Talks AI Safety 的視頻中找到。

研究人員指出,像 Robots.txt 成為道德爬行標準一樣,水印等道德人工智能實踐可以發展成為行業標準。

他說:

“……在過去的 30 年裡,我們已經看到大型互聯網公司可以就某些最低標準達成一致,無論是因為害怕被起訴、希望被視為負責任的參與者,還是其他原因。

一個簡單的例子是 robots.txt:如果你希望你的網站不被搜索引擎收錄,你可以指定它,主要的搜索引擎會尊重它。

以類似的方式,你可以想像像加水印這樣的東西——如果我們能夠證明它並證明它有效並且它很便宜並且不會損害輸出質量並且不需要太多計算等等——那它只會成為一個行業標準,任何想被視為負責任的參與者的人都會加入它。”

研究人員開發的水印是基於密碼學的。 任何擁有密鑰的人都可以測試一份文件,看看它是否有數字水印,表明它是由人工智能生成的。

例如,代碼可以採用標點符號的使用方式或單詞選擇的形式。

他解釋了加水印的工作原理及其重要性:

“到目前為止,我的主要項目是為 GPT 等文本模型的輸出添加統計水印的工具。

基本上,每當 GPT 生成一些長文本時,我們希望在其單詞選擇中有一個不明顯的秘密信號,您可以稍後使用它來證明,是的,這來自 GPT。

我們希望更難獲取 GPT 輸出並將其傳遞出去,就好像它來自人類一樣。

顯然,這可能有助於防止學術剽竊,而且,例如,大規模宣傳——你知道,用看似切題的評論向每個博客發送垃圾郵件,支持俄羅斯入侵烏克蘭,甚至在莫斯科沒有一棟充滿巨魔的建築物。

或冒充某人的寫作風格以指控他們。

這些都是人們可能想要變得更難的東西,對吧?”

研究人員表示,水印打敗了逃避檢測的算法努力。

但他也表示,打敗水印是可能的:

“現在,這一切都可以用足夠的努力來打敗。

例如,如果你使用另一個 AI 來解釋 GPT 的輸出——好吧,我們將無法檢測到這一點。”

研究人員宣布,目標是在 GPT 的未來版本中推出水印。

您應該將 AI 用於 SEO 目的嗎?

人工智能內容是可檢測的

許多人說,谷歌無法知道內容是否是使用 AI 生成的。

我不明白為什麼會有人持有這種觀點,因為檢測人工智能是一個已經被破解的問題。

甚至可以檢測部署反檢測算法的內容(如我在上面鏈接的研究論文中所述)。

檢測機器生成的內容多年來一直是研究的主題,包括研究如何檢測從另一種語言翻譯過來的內容。

自動生成的內容違反了 Google 的準則

谷歌表示,人工智能生成的內容違反了谷歌的指導方針。 所以記住這一點很重要。

ChatGPT 可能在某些時候包含水印

最後,OpenAI 研究人員表示(在 ChatGPT 發布前幾週)水印“有望”出現在下一版本的 GPT 中。

因此,如果 ChatGPT 尚未加水印,它可能會在某個時候升級為加水印。

人工智能在 SEO 中的最佳應用

AI 工具的最佳用途是以提高員工工作效率的方式擴展 SEO。 這通常包括讓 AI 完成繁瑣的研究和分析工作。

總結網頁以創建元描述可能是一種可以接受的用途,因為谷歌明確表示這並不違反其指導方針。

使用 ChatGPT 生成大綱或內容簡介可能是一個有趣的用途。

但是,將內容創建交給 AI 並按原樣發布可能不是 AI 的最有效使用方式,原因有很多,包括它可能被檢測到並導致網站收到手動操作(也稱為禁止)。

Shutterstock/Roman Samborskyi 的特色圖片