コンテンツとSEOのためのChatGPT?

公開: 2022-12-13

ChatGPT は、指示を出したり、エッセイを書くなどのタスクを実行したりできる人工知能チャットボットです。 コンテンツや SEO に使用する方法を決定する前に、理解しておくべき問題が数多くあります。

ChatGPT コンテンツの品質は驚くべきものであるため、SEO 目的で使用するという考えに対処する必要があります。

探検しましょう。

ChatGPT ができることの理由

簡単に言えば、ChatGPT は大規模学習モデルと呼ばれる機械学習の一種です。

大規模学習モデルは、文の次の単語を予測できる膨大な量のデータでトレーニングされた人工知能です。

より多くのデータをトレーニングするほど、より多くの種類のタスク (記事の執筆など) を実行できます。

大規模な言語モデルは、予期しない機能を開発することがあります。

スタンフォード大学は、トレーニング データの増加により、GPT-3 がテキストを英語からフランス語に翻訳できるようになった方法について書いています。

GPT-3 (および ChatGPT の基礎となる GPT-3.5) のような大規模な言語モデルは、特定のタスクを実行するようにトレーニングされていません。

彼らは、他の分野に適用できる幅広い知識で訓練されています。

これは、人間が学習する方法と似ています。 たとえば、人間が大工仕事の基礎を学べば、テーブルを作るためにその知識を応用することができます。

GPT-3 は、複数のタスクに適用できる一般的な知識が含まれているという点で、人間の脳と同様に機能します。

GPT-3 に関するスタンフォード大学の記事では、次のように説明されています。

「特定の問題を解決するチェスエンジンとは異なり、人間は「一般的に」知的であり、詩を書くことからサッカーをすること、納税申告書を提出することまで、あらゆることを学ぶことができます.

現在のほとんどの AI システムとは対照的に、GPT-3 はそのような一般的な知性に近づいています…」

ChatGPT には、InstructGPT と呼ばれる別の大規模な言語モデルが組み込まれています。これは、人間からの指示と、複雑な質問に対する長い形式の回答を取得するように訓練されています。

指示に従うこの能力により、ChatGPT は事実上あらゆるトピックに関するエッセイを作成するための指示を受け、指定された方法でそれを行うことができます。

単語数や特定のトピック ポイントを含めるなどの制約内でエッセイを書くことができます。

ChatGPTについて知っておくべき6つのこと

ChatGPT は、一般に公開されているさまざまなテキストでトレーニングされているため、事実上あらゆるトピックについてエッセイを書くことができます。

ただし、ChatGPT には、SEO プロジェクトでの使用を決定する前に知っておくべき重要な制限があります。

最大の制限は、ChatGPT が正確な情報を生成する信頼性がないことです。 これが不正確である理由は、モデルが特定のトピックの段落内の文の前の単語の後に来る単語を予測しているだけだからです。 精度には関係ありません。

これは、質の高いコンテンツの作成に関心のある人にとって最大の関心事です。

1. 特定の種類のコンテンツを回避するようにプログラムされている

たとえば、ChatGPT は、生々しい暴力、露骨な性行為、および爆発装置の作り方の説明などの有害なコンテンツのトピックに関するテキストを生成しないように特別にプログラムされています。

2. 時事問題を知らない

もう 1 つの制限は、2021 年以降に作成されたコンテンツを認識しないことです。

そのため、コンテンツを最新かつ新鮮にする必要がある場合、現在の形式の ChatGPT は役に立たない可能性があります。

3. バイアスが組み込まれている

知っておくべき重要な制限は、有益で、誠実で、無害であるように訓練されているということです。

これらは単なる理想ではなく、マシンに組み込まれた意図的なバイアスです。

無害であるというプログラミングは、出力が否定性を回避するように思われます。

それは良いことですが、記事を理想的には中立的なものから微妙に変更することにもなります.

いわば、ハンドルを握り、ChatGPT に目的の方向に運転するよう明示的に指示する必要があります。

バイアスによって出力が変化する例を次に示します。

私は ChatGPT に、レイモンド・カーバーのスタイルでストーリーを書き、別のストーリーをミステリー作家のレイモンド・チャンドラーのスタイルで書くよう依頼しました。

どちらの物語も、どちらの作家にも特徴のない明るい結末を迎えました。

私の期待に沿ったアウトプットを得るために、私はChatGPTを詳細な指示で案内して明るい結末を避け、カーバースタイルの結末で物語の解決を避ける必要がありました.

ポイントは、ChatGPT にはバイアスがあり、それらが出力にどのように影響するかを認識する必要があるということです。

4. ChatGPT には非常に詳細な手順が必要です

ChatGPT では、オリジナリティの高いコンテンツや特定の視点を持つ可能性の高い、より高品質のコンテンツを出力するために、詳細な指示が必要です。

指示が多ければ多いほど、出力はより洗練されたものになります。

これは、注意すべき長所であると同時に制限でもあります。

コンテンツのリクエストに含まれる命令が少ないほど、出力が別のリクエストと同様の出力を共有する可能性が高くなります。

テストとして、複数の人が Facebook に投稿したクエリと出力をコピーしました。

私がChatGPTにまったく同じ質問をしたところ、マシンは同様の構造に従った完全にオリジナルのエッセイを作成しました.

記事は異なっていましたが、同じ構造を共有し、同様のサブトピックに触れていましたが、言葉は 100% 異なっていました。

ChatGPT は、記事の次の単語を予測する際に完全にランダムな単語を選択するように設計されているため、それ自体が盗用されないことは理にかなっています。

しかし、同様のリクエストが同様の記事を生成するという事実は、単に「これをください」と尋ねることの限界を浮き彫りにします。 」

5. ChatGPT コンテンツを特定できますか?

Google や他の組織の研究者は、AI によって生成されたコンテンツを正しく検出するためのアルゴリズムに長年取り組んできました。

このトピックに関する多くの研究論文があり、GPT-2 と GPT-3 からの出力を使用した 2022 年 3 月のものを紹介します。

研究論文のタイトルは、 Generative Transformers の検出における Neural-Statistical Features の Adversarial Robustness (PDF) です。

研究者は、検出を回避するように設計されたアルゴリズムを使用する AI 生成コンテンツを検出できる分析の種類を確認するためにテストを行っていました。

彼らは、BERT アルゴリズムを使用して単語を同義語に置き換えたり、スペルミスを追加したりするなどの戦略をテストしました。

彼らが発見したのは、Gunning-Fog Index や Flesch Index スコアなど、AI が生成したテキストの統計的特徴のいくつかは、そのテキストが検出を回避するように設計されたアルゴリズムを使用していたとしても、そのテキストがコンピューターで生成されたかどうかを予測するのに役立つことでした。

6.目に見えない透かし

さらに興味深いのは、OpenAI の研究者が、ChatGPT などの OpenAI 製品を通じて作成されたコンテンツの検出に役立つ暗号透かしを開発したことです。

最近の記事では、Scott Aaronson Talks AI Safety というタイトルのビデオで利用できる OpenAI 研究者による議論に注意を喚起しました。

この研究者は、Robots.txt が倫理的なクロールの標準になったように、透かしなどの倫理的な AI の実践が業界標準に発展する可能性があると述べています。

彼は言い​​ました:

「…私​​たちは過去 30 年間、大手インターネット企業が、訴えられることへの恐れ、責任あるプレーヤーとして見られたいという願望、またはその他の理由で、特定の最低限の基準に同意するのを見てきました。

簡単な例の 1 つに robots.txt があります。ウェブサイトを検索エンジンにインデックスさせたくない場合は、それを指定することができ、主要な検索エンジンはそれを尊重します。

同様に、透かしのようなものを想像することもできます — それが機能し、安価で、出力の品質を損なわず、多くの計算を必要としないことなどを実証して示すことができれば、それは業界標準になるだけであり、責任あるプレーヤーと見なされたい人は誰でもそれを含めるでしょう。」

研究者が開発した透かしは、暗号に基づいています。 キーを持っている人は誰でもドキュメントをテストして、AI によって生成されたことを示す電子透かしがあるかどうかを確認できます。

コードは、句読点の使用方法や単語の選択などの形式にすることができます。

彼は透かしがどのように機能し、なぜそれが重要なのかを説明しました:

「これまでの私の主なプロジェクトは、GPT のようなテキスト モデルの出力に統計的に透かしを入れるためのツールでした。

基本的に、GPT が長いテキストを生成するときはいつでも、それが GPT から来たものであることを後で証明するために使用できるように、単語の選択に他の方法では気付かれないような秘密のシグナルが存在することを望んでいます。

私たちは、GPT 出力を取得して、それが人間からのものであるかのように渡すことをより困難にしたいと考えています。

これは明らかに学術的な剽窃を防ぐのに役立つ可能性がありますが、たとえばプロパガンダの大量生成を防ぐのにも役立ちます。つまり、ロシアのウクライナ侵略を支持する一見トピックに沿ったコメントをすべてのブログにスパム送信し、モスクワの荒らしでいっぱいの建物でさえありません。

または、誰かを非難するために誰かの文体になりすます。

これらはすべて、難しくしたいものですよね?

研究者は、透かしが検出を回避するためのアルゴリズムの取り組みを打ち負かすことを共有しました.

しかし、透かしを無効にすることは可能であるとも述べています。

「さあ、これは努力すれば倒せる。

たとえば、別の AI を使用して GPT の出力を言い換えたとしても、それを検出することはできません。」

研究者は、目標は GPT の将来のリリースで透かしを展開することであると発表しました。

SEO 目的で AI を使用する必要がありますか?

AI コンテンツは検出可能です

コンテンツが AI を使用して生成されたかどうかを Google が知る方法はないと、多くの人が言います。

AI の検出はすでに解決されている問題なので、なぜそのような意見を言う人がいるのか理解できません。

検出防止アルゴリズムを展開するコンテンツでさえ検出できます (上記のリンク先の研究論文に記載されているように)。

機械生成コンテンツの検出は、別の言語から翻訳されたコンテンツを検出する方法に関する研究など、長年にわたる研究の対象となっています。

自動生成されたコンテンツは Google のガイドラインに違反しています

Google は、AI によって生成されたコンテンツは Google のガイドラインに違反していると述べています。 ですから、それを心に留めておくことが重要です。

ChatGPT には、ある時点で透かしが含まれる場合があります

最後に、OpenAI の研究者は (ChatGPT のリリースの数週間前に) 透かしが GPT の次のバージョンで「うまくいけば」来ると述べました。

したがって、ChatGPT は、まだ透かしが入っていない場合、ある時点で透かしを入れてアップグレードされる可能性があります。

SEO のための AI の最適な使用法

AI ツールの最適な使用法は、従業員の生産性を高める方法で SEO をスケーリングすることです。 それは通常、AI に調査と分析という退屈な作業を任せることで構成されます。

メタ ディスクリプションを作成するために Web ページを要約することは、Google がガイドラインに違反していないと明確に述べているため、許容される使用法である可能性があります。

ChatGPT を使用してアウトラインまたはコンテンツ ブリーフを生成することは、興味深い用途になる可能性があります。

しかし、コンテンツの作成を AI に任せてそのまま公開することは、AI が検出されてサイトが手動で対処される可能性 (禁止) など、さまざまな理由から AI の最も効果的な使用方法ではない可能性があります。

Shutterstock/Roman Samborskyi の主な画像