OpenAIは、ChatGPTによって生成された虚偽の情報に対応する最初の名誉毀損訴訟と思われる訴訟に見舞われた。
ジョージア州のラジオ司会者マーク・ウォルターズ氏は、ウォルターズ氏が非営利団体から資金をだまし、横領した疑いで告発されたとChatGPTが報じたことを受け、同社を告訴している。 このシステムは、第三者であるフレッド・リールというジャーナリストからの要求に応じて情報を生成しました。 ウォルターズさん 場合 訴訟は6月5日にジョージア州グウィネット郡上級裁判所に起こされ、OpenAIに対して不特定の金銭的損害賠償を求めている。
ChatGPT や他のチャットボットによって生成された虚偽の情報に関する広範な苦情を考えると、この事件は注目に値します。 これらのシステムには事実とフィクションを区別する信頼できる方法がなく、情報を求められたとき、特に質問者が示唆したことが真実であることを確認するよう求められたとき、頻繁に日付、事実、数字をでっち上げます。
「この新しいサイトについて聞いたのですが、スーパー検索エンジンのようなものだと誤解していました。」
通常、こうした捏造はユーザーを誤解させたり、時間を無駄にしたりするだけです。 しかし、そのようなエラーが損害を引き起こすケースも出始めています。 これらには教授も含まれます 彼のクラスを落第すると脅す ChatGPTが生徒たちがAIを使って作文を書いたと主張した後、弁護士が 制裁の可能性に直面している ChatGPT を使用して偽の訴訟事件を調査した後。 最近問題になった弁護士 裁判官に言った: 「この新しいサイトについて聞いたのですが、スーパー検索エンジンのようなものだと誤解していました。」
OpenAIは、ChatGPTのホームページに、システムが「時折、誤った情報を生成する可能性がある」と警告する小さな免責事項を含めているが、同社はまた、ChatGPTを信頼できるデータのソースとして提示し、広告コピーでシステムを「答えを得る」および「学ぶ」方法であると説明している新しい何か。” OpenAI の CEO である Sam Altman 氏は、新しい情報を本から学ぶよりも ChatGPT から学ぶことを好むと何度も述べています。
ただし、虚偽または中傷的な情報を生成する AI システムの責任を企業に問う法的先例があるかどうか、あるいはこの特定の訴訟に実質的なメリットがあるかどうかは明らかではありません。
米国では伝統的に、第 230 条により、サードパーティによって作成され、プラットフォーム上でホストされている情報に対する法的責任からインターネット企業が保護されています。 これらの保護が AI システムに適用されるかどうかは不明です。AI システムは単にデータ ソースにリンクするだけでなく、新たに情報を生成します (このプロセスは偽のデータの作成にもつながります)。
ウォルターズ氏がジョージア州で起こした名誉毀損訴訟は、この枠組みを試す可能性がある。 この事件では、ジャーナリストのフレッド・リール氏がChatGPTに対し、ある事件を要約するよう依頼したと述べている。 実際の連邦裁判所の訴訟 オンライン PDF にリンクすることで。 ChatGPT は、詳細かつ説得力があるが、いくつかの点で間違っている、事件の誤った概要を作成することで対応しました。 ChatGPTの概要には、事実として正しい情報がいくつか含まれていたが、ウォルターズに対する虚偽の主張も含まれていた。 同紙は、ウォルターズ容疑者が銃規制修正第2条財団と呼ばれる非営利団体から「500万ドルを超える」資金を流用したとみられると述べた。 ウォルターズ氏はこれまで一度も告発されていない。
Riehl は ChatGPT によって生成された虚偽の情報を決して公開しませんでしたが、詳細を別の当事者に確認しました。 ウォルターズ氏がどうやってこの誤った情報を知ったのかは訴訟書類からは明らかではない。
特に、PDF を要約するという Riehl の要求に応じているにもかかわらず、ChatGPT は実際には追加のプラグインを使用せずにそのような外部データにアクセスできません。 システムがこの事実を Riehl に警告できないことは、ユーザーを誤解させる能力の一例です。 (ただし、いつ ザ・ヴァージ 今日、同じタスクでシステムをテストしたところ、次のように明確かつ有益な応答が返されました。「申し訳ありませんが、AI テキストベースのモデルとして、特定の PDF ファイルやその他の外部ドキュメントにアクセスしたり開いたりする機能はありません」 。」)
法学教授のユージン・ヴォロック氏は次のような論文を書いている。 AI システムの法的責任に記載されている、 ブログ投稿 「そのような名誉毀損の主張は」と考えているが、 [against AI companies] 原則的には法的に実行可能である」が、この特定の訴訟は「維持するのが難しいはずだ」。 Volokh氏は、ウォルターズ氏がこれらの虚偽の発言についてOpenAIに通知せず、削除する機会を与えておらず、ChatGPTの出力の結果として実際の損害は発生していないと指摘した。 「しかし、いずれにせよ、ここで最終的に何が起こるかを見るのは興味深いでしょう」とヴォロック氏は言います。
私たちは OpenAI にコメントを求めており、返答があればこの記事を更新します。