AI がニュース記事やイベントを発明する傾向が名誉毀損法に抵触するため、テクノロジーの世界で最もホットな新しいおもちゃは、法的な問題に巻き込まれる可能性があります。 ChatGPT のような AI モデルは名誉毀損を犯すことさえできますか? テクノロジーを取り巻く多くのことと同様に、それは未知で前例のないものですが、今後の法的な問題がそれを変える可能性があります.
名誉毀損とは、誰かについての有害で虚偽の声明を発表または発言することと広く定義されています。 それは複雑で微妙な法的領域であり、法域によっても大きく異なります。米国の名誉毀損事件は、今日のドラマの舞台である英国やオーストラリアの事件とは大きく異なります。
ジェネレーティブ AI は、たとえば、著作権で保護された素材の使用がフェアユースまたは侵害に相当するかどうかなど、多くの未解決の法的問題をすでに生み出しています。 しかし、遅くとも 1 年前までは、画像やテキストを生成する AI モデルのいずれも、現実と混同するようなものを生成するには不十分でした。
現在はそれほど多くはありません: ChatGPT と Bing Chat の背後にある大規模な言語モデルは、巨大な規模で動作するでたらめなアーティストであり、検索エンジン (およびますます他のすべてのもの) などの主流の製品との統合により、システムがグリッチな実験から大衆へと進化していることは間違いありません。パブリッシング プラットフォーム。
では、ツール/プラットフォームが、政府関係者が不正行為で起訴された、または大学教授がセクハラで告発されたと書いた場合はどうなるでしょうか?
1 年前には、広範な統合が行われず、説得力のない言葉遣いがあったため、そのような虚偽の発言が真剣に受け止められる可能性があると言う人はほとんどいませんでした。 しかし今日、これらのモデルは、広くアクセス可能な消費者プラットフォームで自信を持って説得力を持って質問に答えています。それらの答えが幻覚であったり、存在しない記事に誤って帰せられていたりしてもです。 彼らは、虚偽の陳述を本物の記事に帰し、真実の陳述を発明品に帰するか、またはすべてをでっち上げます。
これらのモデルがどのように機能するかという性質上、モデルは何かが真実であるかどうかを知りませんし、気にもしません。それが真実に見えるかどうかだけです。 確かに、宿題をするためにそれを使用しているときは問題ですが、あなたが犯していない犯罪であなたを非難するとき、それはこの時点で名誉毀損になる可能性があります.
これは、オーストラリアのヘプバーン シャイアの市長であるブライアン フッドが、ChatGPT から 20 年前の贈収賄スキャンダルで有罪判決を受けた人物として指名されたと知らされたときに行った主張です。 スキャンダルは本物で、フッドも関わっていました。 しかし、彼はそれについて当局に行き、犯罪で起訴されることはありませんでした。 ロイターが報じているように、彼の弁護士は次のように述べています。.
さて、この発言が誤りであり、間違いなくフッドの評判を損なうことは明らかです. しかし、誰がその声明を出したのですか? ソフトウェアを開発したのは OpenAI ですか? ライセンスを取得し、Bing に展開したのは Microsoft ですか? 自動化されたシステムとして機能するソフトウェア自体ですか? もしそうなら、誰がそのシステムに声明を作成するように促す責任がありますか? そのような状況でそのような発言をすることは、それを「公開」することを意味しますか、それとも 2 人の会話のようなものですか? その場合、誹謗中傷になりますか? OpenAI または ChatGPT は、この情報が誤りであることを「知っていた」のでしょうか? また、そのような場合に過失をどのように定義しますか? AI モデルは悪意を示すことができますか? 法律、事案、裁判官次第ですか?
名誉毀損を法的に定義する法律や前例が確立されたときは言うまでもなく、それらが関係するテクノロジーは 1 年前には存在しなかったため、これらはすべて未解決の問題です。 チャットボットを虚偽の発言で訴えるのはばかげているように思えるかもしれませんが、チャットボットはかつてのようにはなりません。 世界最大の企業のいくつかが検索エンジンに代わる次世代の情報検索としてそれらを提案しているため、これらはもはやおもちゃではなく、何百万人もの人々が定期的に使用するツールです.
Hood は OpenAI に、これについて何かをするように求める手紙を送った – オーストラリアや米国の法律によって、それが何ができるのか、それが強制されているのか、それ以外のことなのかははっきりしていない. しかし、別の最近のケースでは、法学教授 セクシャルハラスメントで訴えられた ワシントン・ポストの架空の記事を引用するチャットボットによって。 そして、そのような虚偽の潜在的に損害を与える発言は、私たちが考えているよりも一般的である可能性があります。
これはこの法廷ドラマの始まりに過ぎず、弁護士や AI の専門家でさえ、それがどのように展開するかはわかりません。 しかし、OpenAI や Microsoft などの企業 (他のすべての主要なテクノロジー企業や数百の新興企業は言うまでもありません) が、自社のシステムが情報源として真剣に受け止められることを期待している場合、それらの主張の結果を避けることはできません。 彼らは出発点としてレシピや旅行計画を提案するかもしれませんが、人々は、企業がこれらのプラットフォームが真実の情報源であると言っていることを理解しています.
これらの厄介な発言は実際の訴訟に発展しますか? 業界が再び変化する前に、これらの訴訟は解決されるのでしょうか? そして、これらすべては、訴訟が行われている法域間の法律によって議論されるのでしょうか? テクノロジーと法律の専門家が、業界で最も急速に変化するターゲットに取り組もうとしている興味深い数か月間 (または数年後かもしれません) になりそうです。