OpenAIがリリースされたとき 2020 年 7 月の GPT-3 では、大規模な言語モデルのトレーニングに使用されるデータを垣間見ることができました。 Web、Reddit の投稿、書籍などから収集された何百万ものページが、ジェネレーティブ テキスト システムの作成に使用されています。 テクニカルペーパー. このデータに含まれているのは、オンラインで共有している個人情報の一部です。 このデータは現在、OpenAI に問題を引き起こしています。
3 月 31 日、イタリアのデータ規制当局 一時的な緊急決定を下した トレーニング データに含まれる何百万人ものイタリア人の個人情報の使用を停止することを OpenAI に要求します。 規制当局である Garante per la Protezione dei Dati Personali によると、OpenAI には ChatGPT で人々の個人情報を使用する法的権利がありません。 これに対応して、OpenAI はイタリアの人々がチャットボットにアクセスするのを阻止し、さらに調査を進めている当局者に回答を提供しています。
この措置は、西側の規制当局による ChatGPT に対する最初の措置であり、膨大な量のインターネット データで訓練されることが多い、巨大な生成 AI モデルの作成に関するプライバシーの緊張を浮き彫りにしています。 アーティストや メディア企業 ジェネレーティブ AI の開発者が自分たちの仕事を許可なく使用したと苦情を申し立てていましたが、データ規制当局は現在、人々の個人情報についても同じことを言っています。
同様の決定がヨーロッパ全体で続く可能性があります。 イタリアが調査を発表して以来、フランスのデータ規制当局は、 ドイツ、アイルランド Garante に連絡して、調査結果に関する詳細情報を求めました。 ノルウェーのデータ保護機関で国際部門の責任者を務める Tobias Judin 氏は、「ビジネス モデルが、見つけたものをインターネットから収集するだけのものだった場合、ここには非常に重大な問題がある可能性があります」と述べています。 Judin は、モデルが違法に収集された可能性のあるデータに基づいて構築されている場合、誰でもツールを合法的に使用できるかどうかについて疑問が生じると付け加えています。
イタリアの OpenAI への打撃は、大規模な AI モデルの精査が着実に増えていることでもあります。 3 月 29 日、テクノロジー リーダーたちは、ChatGPT のようなシステムの開発を一時停止するよう求め、将来への影響を懸念しました。 ジュディンは、イタリアの決定は、より差し迫った懸念を強調していると述べています。 「基本的に、これまでの AI 開発には大きな欠点がある可能性があることがわかりました」と Judin 氏は言います。
いい加減な仕事内容
組織の方法をカバーするヨーロッパの GDPR 規則 人々の個人データを収集、保存、および使用する、大陸全体で 4 億人を超える人々のデータを保護します。 この個人データは、個人の名前から IP アドレスまで、あらゆるものであり、個人を特定するために使用できる場合、個人情報としてカウントされます。 米国の州レベルのプライバシー規則のパッチワークとは異なり、GDPR の保護は、人々の情報がオンラインで自由に入手できる場合に適用されます。 要するに、誰かの情報が公開されているからといって、その情報をバキュームして好きなように扱えるわけではありません。
イタリアの Garante は、ChatGPT には GDPR の下で 4 つの問題があると考えています。 正確ではない人々に関する情報を提供する可能性があります。 人々は、データが収集されたことを知らされていません。 おそらく最も重要なことは、ChatGPT のトレーニングに使用される大量のデータから人々の個人情報を収集するための「法的根拠がない」という第 4 の主張です。
英国ニューキャッスル大学の法学、イノベーション、社会学の教授であるリリアン・エドワーズは、「イタリア人は彼らのはったりを呼びました」と述べています。 「これがデータ保護法の違反であることは、EU ではかなり明白に見えました。」