「時折、誤った情報が生成される可能性があります。」
これは、OpenAI が AI チャットボット ChatGPT のホームページに固定した警告です。システムの機能と制限について詳しく説明している 9 つのポイントのうちの 1 つです。
“5月 たまに 誤った情報を生成します。」
これは、Wikipedia から Google、雑誌のトップページまで、ほぼあらゆる情報源に付け加えることができる警告です。 ニューヨークタイムズ、 そしてそれは多かれ少なかれ正しいでしょう。
「時々発生する可能性があります 正しくない 情報。”
なぜなら、ChatGPT のように強力で、誇大宣伝され、誤解されているテクノロジを人々が利用できるようにするという点では、OpenAI が十分ではないことは明らかだからです。
ChatGPTの誤解された性質は、米国弁護士スティーブン・A・シュワルツ氏がコロンビアの航空会社アビアンカ航空を相手取って進めていた訴訟の裏付けとなる訴訟を見つけるためにチャットボットに頼ったというニュースが流れ、先週末に何度も明らかになった。 もちろん、問題は、ChatGPT が示唆したケースがどれも存在しないことでした。
シュワルツ氏は「その可能性には気づいていなかった」と主張している。 [ChatGPT’s] 内容は虚偽である可能性があります」と述べたが、ボットとの会話の記録によれば、彼は自分の研究を確認するほど十分に疑いを持っていたことが分かる。 残念ながら、彼は ChatGPT に問い合わせることでそのようにしましたが、再びシステムが彼を誤解させ、その架空の症例履歴が正当であると彼を安心させました。
このシナリオでは、シュワルツ氏には十分な非難に値するが、ChatGPT のユーザーがシステムを信頼できる情報源として扱っている場合に、このような事件が頻繁に発生していることから、より広範な考慮が必要であることも示唆されている。
過去数か月間、ChatGPT の虚偽に人々がだまされたという報告が多数ありました。 ほとんどのケースは些細なことであり、悪影響はほとんど、またはまったくありません。 通常、システムは、 ニュース記事をでっち上げる また 学術論文 また 一冊の本、その後、誰かがこのソースを見つけようとして、時間を無駄にするか、愚か者のように見えるかのどちらか(またはその両方)です。 しかし、ChatGPT の誤った情報がより深刻な結果を引き起こす可能性があることは簡単にわかります。
たとえば5月には、テキサス州のA&M教授の一人が チャットボットを使用して確認しました 学生の作文が AI の助けを借りて書かれたかどうか。 よろしくお願いします、ChatGPT さんはそう言いました。 全て AI にはこの評価を行うための信頼できる機能がないにもかかわらず、学生の作文は AI によって生成されました。 教授は、間違いが指摘されるまでクラスを落第させ、卒業証書を差し上げると脅した。 そして4月には、ある法学教授が、このシステムが性的違法行為を告発する虚偽のニュース記事をどのように生み出したかを語った。 彼は、研究をしていた同僚がその事実を彼に知らせたときに初めて知りました。 教授「かなり寒かったよ」 言った の ワシントンポスト。 「この種の申し立ては非常に有害です。」
このようなケースが ChatGPT や他のチャットボットの可能性を無効にするものではないと思います。 適切なシナリオと適切な保護策があれば、これらのツールが非常に役立つことは明らかです。 この可能性には、情報の検索などのタスクも含まれると思います。 いろいろあるよ 興味深い研究 これらのシステムが将来どのようにより事実に基づいたものにできるのか、そしてどのように作られるのかを示すために行われています。 重要なのは、現時点では十分ではないということです。
これは部分的にはメディアの責任です。 ChatGPT や同様のボットに関する多くのレポートでは、これらのシステムが感情と欲望を持つ人間に似た知性として描かれています。 多くの場合、ジャーナリストはこれらのシステムの信頼性の低さを強調せず、システムが提供する情報の偶発的な性質を明確に示しません。
人々は ChatGPT を検索エンジンとして使用します。 OpenAI はそれを認識し、事前に警告する必要があります
しかし、この記事の冒頭で明らかになったと思いますが、OpenAI も確かに問題に役立つ可能性があります。 チャットボットは新しいタイプのテクノロジーとして紹介されていますが、人々がチャットボットを検索エンジンとして使用していることは明らかです。 (そして多くは明示的に起動されます として これは驚くべきことではありません。インターネット ユーザーの世代は、質問をボックスに入力して回答を受け取るように訓練されてきました。 しかし、Google や DuckDuckGo などの情報源が精査を招くリンクを提供している一方で、チャットボットは再生成されたテキストに情報を混同し、全知全能のデジタル アシスタントのような口調で話します。 免責事項として 1 ~ 2 文だけでは、この種の準備を無効にするのに十分ではありません。
興味深いことに、この種の事実調査タスクでは、Bing のチャットボット (ChatGPT と同じ技術を利用している) の方がわずかに優れていることがわかりました。 主に、事実に関する質問に応じて Web を検索し、ソースとしてリンクをユーザーに提供する傾向があります。 チャットGPT できる ただし、Plus バージョンの料金を支払い、ベータ版のプラグインを使用している場合に限ります。 その自己完結型の性質により、誤解を招く可能性が高くなります。
介入は複雑である必要はありませんが、複雑である必要があります。 そこには。 たとえば、ChatGPT は、事実に基づく引用を生成し、ユーザーに「ソースを確認してください」と警告するように求められているとき、それを認識できないのはなぜでしょうか。 「この文章はAIが生成したものですか?」という質問になぜ答えられないのでしょうか。 「申し訳ありませんが、私にはその判断ができません」とはっきりと言うのですか? (私たちは OpenAI にコメントを求めました。返答があればこの記事を更新します。)
OpenAI はこの分野で確実に改善しました。 私の経験では、ChatGPT はその立ち上げ以来、その限界についてより率直に語るようになり、しばしば「AI 言語モデルとしては…」という AI のつまらない言葉で答えを前置きするようになりましたが、それは一貫性のないものでもあります。 今朝、私がボットに「AI が生成したテキストを検出できますか?」と尋ねたところ、 「絶対確実ではない」と警告したが、私がこの記事の一部を与えて同じ質問をすると、「はい、この文章は AI が生成したものです」とだけ答えた。 次に、測定(私が知っていること)に関するお勧めの本のリストを教えてもらいました。 少し だいたい)。 “そうです!” 10の提案をする前にこう言った。 それは多くの古典を網羅した優れたリストでしたが、2 つのタイトルはまったくの作り話で、チェックすることを知らなかったら気付かなかったでしょう。 同様のテストを自分で試してみると、 qエラーをすぐに見つける。
この種のパフォーマンスでは、「時々誤った情報が生成される可能性があります」のような免責事項は正確とは思えません。