規制当局がChatGPTなどに追いつくことができるように、より強力な生成AIモデルの開発の一時停止を求める公開書簡の2日後、イタリアのデータ保護機関は、一部の国が する 最先端の AI にすでに適用されている法律がある — によって 注文する OpenAI は、人々のデータをローカルで処理することを即座に停止します。
イタリアの DPA は、ChatGPT の作成者が欧州連合の一般データ保護規則 (GDPR) に違反していることを懸念しており、調査を開始していると述べました。
具体的には、 保証人 OpenAI が人々のデータを違法に処理したという懸念と、未成年者がこの技術にアクセスするのを防ぐシステムがないことを理由に、ChatGPT をブロックする命令を出したと述べた。
サンフランシスコに本拠を置く同社は、命令に対応するために 20 日間の猶予を与えられている。 (注意: EU のデータ保護体制に違反した場合の罰金は、年間売上高の 4% または 2,000 万ユーロのいずれか大きい方まで拡大される可能性があります。)
OpenAI は EU 内に設立された法人を持っていないため、GDPR の下で、データ保護機関は、ローカル ユーザーにリスクがあると判断した場合に介入する権限を与えられていることに注意してください。 (したがって、イタリアが介入するところに、他の人が続く可能性があります。)
一連の GDPR 問題
GDPR は、EU ユーザーの個人データが処理されるたびに適用されます。 そして、OpenAI の大規模な言語モデルがこの種の情報を処理していることは明らかです。たとえば、その地域の特定の人物の伝記をオンデマンドで作成できるからです (わかっています。試してみました)。 OpenAI は、技術の最新のイテレーションである GPT-4 に使用されるトレーニング データの詳細を提供することを拒否しました。 しかし、以前のモデルは、Reddit などのフォーラムを含むインターネットからスクレイピングされたデータでトレーニングされていたことを明らかにしました。 そのため、ある程度オンラインに接続していれば、ボットがあなたの名前を知っている可能性があります。
それに加えて、ChatGPT は指名された個人に関する完全に誤った情報を生成することが示されています。明らかに、トレーニング データに欠けている詳細をでっち上げています。 これにより、GDPR に関するさらなる懸念が生じる可能性があります。この規則は、エラーを修正する権利を含む、データに対する一連の権利をヨーロッパ人に提供するためです。 また、ユーザーが OpenAI に、ボットによって生成された自分に関する誤った発言を修正するように依頼する方法/かどうかは、ほんの 1 つのシナリオの例では明らかではありません。
の 保証人の声明は、サービスが今月初めに被ったデータ侵害も浮き彫りにしています。 認めた 会話履歴機能がユーザーのチャットを漏らしており、一部のユーザーの支払い情報が流出した可能性があると述べた.
データ侵害は、GDPR が規制するもう 1 つの領域であり、個人データを処理するエンティティが情報を適切に保護していることを確認することに重点が置かれています。 汎 EU 法には、関連する監督当局に重大な違反を厳しい期間内に通知する要件も含まれています。
これらすべてを包括するのは、そもそも OpenAI がヨーロッパ人のデータを処理するためにどの法的根拠に依存してきたのかという大きな (より大きな) 問題です。 別名、この処理の合法性。
GDPR では、同意から公共の利益まで、多くの可能性が認められていますが、これらの大規模な言語モデルをトレーニングするための処理の規模は、合法性の問題を複雑にしています。 保証人 (「個人データの大量収集と保管」を指摘)、データの最小化は規制のもう 1 つの大きな焦点であり、透明性と公平性を必要とする原則も含まれています。 それでも、少なくとも、ChatGPT の背後にある (現在の) 営利目的の会社は、商用 AI をトレーニングするために再利用されたデータの所有者に通知していないようです。 これは、かなり厄介な問題になる可能性があります。
OpenAI がヨーロッパ人のデータを違法に処理した場合、ブロック全体の DPA はデータの削除を命じる可能性があります。
反対に、イタリアは偶然、すべての機械学習を禁止したのかもしれません… 😬
「[T]プライバシー保証人は、OpenAI によってデータが収集されるユーザーおよびすべての利害関係者への情報の欠如に注意しますが、とりわけ、基礎となるアルゴリズムを「トレーニング」する目的で、個人データの大量収集と保管を正当化する法的根拠がないことに注意します。プラットフォームの運用」と DPA は本日の声明で述べています。 [which we’ve translated from Italian using AI].
「実行されたチェックによって証明されるように、ChatGPT によって提供される情報は常に実際のデータに対応しているとは限らないため、個人データの不正確な処理が決定されます」と付け加えました。
当局は、未成年者のデータがOpenAIによって処理されるリスクを懸念していると付け加えた.同社は、年齢確認技術を適用するなど、13歳未満の人々がチャットボットを使用するためにサインアップすることを積極的に防止していない.
子供のデータへのリスクは、規制当局が非常に積極的に取り組んできた分野です。最近では、子供の安全上の懸念から、仮想の友情 AI チャットボットである Replika に対して同様の禁止を命じました。 近年、TikTok は未成年者の使用をめぐって追求しており、子供のものではないことを確認できなかった 50 万件以上のアカウントを削除することを会社に強いています。
そのため、OpenAI がイタリアでサインアップしたユーザーの年齢を明確に確認できない場合、少なくとも、アカウントを削除して、より堅牢なサインアップ プロセスからやり直すことを余儀なくされる可能性があります。
OpenAI は、 保証人の注文。
ニューキャッスル大学のデータ保護とインターネット法の専門家であるリリアン・エドワーズは、「記憶するアルゴリズム」 — TechCrunch に次のように語っています。 しかし、リアルタイム爆弾は法的根拠の否定であり、生成型 AI だけでなく、すべての、または少なくとも多くの機械学習システムに適用されるべきです。」
彼女は、スペインの個人による個人データの同意なしの処理に異議を申し立てたGoogle検索に関する重要な「忘れられる権利」の訴訟を指摘しましたが、ヨーロッパの裁判所は、個人が検索エンジンにそれらに関する不正確または古い情報を削除する (公共の利益テストとのバランスを取る) ため、そのコンテキスト (インターネット検索) での Google の個人データの処理は、処理ポイントの合法性をめぐって EU 規制当局によって非難されることはありませんでした。公益事業を提供します。 しかし、最終的には、Google が EU のデータ主体に消去と修正の権利を与えることになったからです。
「大規模な言語モデルはそれらの救済策を提供しておらず、それが可能であるか、可能性があり、結果がどうなるかは完全には明らかではありません。」 エドワーズが追加 — モデルの強制保持が 1 つの潜在的な修正になる可能性があることを示唆しています。
あるいは、ChatGPT のようなテクノロジーは、単にデータ保護法に違反している可能性があります…
このレポートは追加のコメントで更新されました