OpenAI の規制問題は始まったばかり


OpenAI は、イタリアのデータ当局をなだめ、ChatGPT に対する同国の実質的な禁止を先週解除することができましたが、ヨーロッパの規制当局との戦いはまだ終わっていません。

今年の初め、OpenAI の人気があり物議をかもした ChatGPT チャットボットが法的な問題に直面し、イタリアで事実上禁止されました。 イタリアのデータ保護機関 (GPDP) は、OpenAI が EU のデータ保護規則に違反していると非難し、同社は問題の解決を試みている間、イタリアでのサービスへのアクセスを制限することに同意しました。 4 月 28 日、ChatGPT は同国に戻り、OpenAI はサービスに大きな変更を加えることなく GPDP の懸念に軽く対処しました。これは明らかな勝利です。

GPDPは言った ChatGPT が行った変更を「歓迎」します。 ただし、同社の法的問題、および同様のチャットボットを構築している企業の法的問題は、おそらく始まったばかりです。 いくつかの国の規制当局は、これらの AI ツールがどのように情報を収集して生成するかを調査しており、企業による無許可のトレーニング データの収集から、チャットボットによる誤った情報を吐き出す傾向まで、さまざまな懸念を挙げています。 EU では、世界で最も強力な法的プライバシー フレームワークの 1 つである一般データ保護規則 (GDPR) を適用しており、その影響はヨーロッパ以外にも及ぶ可能性があります。 一方、ブロック内の議員は、特に AI に対処する法律をまとめています。これは、ChatGPT のようなシステムに対する規制の新しい時代を先導する可能性があります。

偽情報、著作権、データ保護に関する ChatGPT のさまざまな問題は、標的を後回しにしています

ChatGPT はジェネレーティブ AI の最も一般的な例の 1 つで、ユーザー プロンプトに基づいてテキスト、画像、ビデオ、オーディオを生成するツールを総称する用語です。 このサービスは、伝えられるところによると、 最も急速に成長している消費者向けアプリケーション 2022 年 11 月のローンチからわずか 2 か月で月間アクティブ ユーザー数が 1 億人に達し、歴史に名を残しました (OpenAI はこれらの数字を確認していません)。 人々はそれを使ってテキストを別の言語に翻訳したり、書いたりします。 大学のエッセイ、コードを生成します。 しかし、規制当局を含む批評家は、ChatGPT の信頼性の低い出力、紛らわしい著作権問題、曖昧なデータ保護慣行を強調しています。

最初に動き出したのはイタリアでした。 3 月 31 日に、OpenAI が GDPR に違反していると思われる 4 つの方法を強調しました。ChatGPT が不正確または誤解を招くような情報を提供できるようにすること、データ収集慣行をユーザーに通知しないこと、次のいずれかを満たさないことです。 考えられる6つの法的正当性 個人データを処理し、13 歳未満の子供がサービスを使用するのを適切に防止できなかった。 OpenAI に対し、イタリア国民から収集した個人情報を ChatGPT のトレーニング データに使用することを直ちに停止するよう命じました。

このような措置を講じた国は他にありません。 しかし、3 月以降、少なくとも 3 つの EU 加盟国が — ドイツフランス、 と スペイン — ChatGPT に関する独自の調査を開始しました。 一方、大西洋を越えて、 カナダ は、個人情報保護および電子文書法 (PIPEDA) に基づくプライバシーの懸念を評価しています。 欧州データ保護委員会 (EDPB) は、 専任タスクフォース 調査の調整に役立ちます。 そして、これらの機関が OpenAI に変更を要求した場合、世界中のユーザーに対するサービスの実行方法に影響を与える可能性があります。

規制当局の懸念は、ChatGPT のトレーニング データの取得元と、OpenAI がユーザーに情報を配信する方法の 2 つのカテゴリに大きく分けることができます。

ChatGPT は、OpenAI の GPT-3.5 および GPT-4 大規模言語モデル (LLM) のいずれかを使用します。これらは、人間が作成した膨大な量のテキストでトレーニングされています。 OpenAI は、どのトレーニング テキストが使用されているかについて正確には語っていませんが、「公開されている個人情報を含む可能性のある、ライセンスを受け、作成され、公開されているさまざまなデータ ソース」を利用していると述べています。

これは、GDPR の下で大きな問題を引き起こす可能性があります。 この法律は 2018 年に制定され、EU 市民からデータを収集または処理するすべてのサービスを対象としています。 GDPR 規則では、個人データを収集する前に明示的な同意を得ること、データが収集される理由について法的に正当な理由があること、データがどのように使用および保存されているかについて透明性を保つことを企業に求めています。

欧州の規制当局は、OpenAI のトレーニング データに関する秘密は、個人情報が最初にユーザーの同意を得て提供されたものかどうかを確認する方法がないことを意味すると主張しており、GPDP は、OpenAI がそもそもデータを収集するための「法的根拠がない」と具体的に主張しました。 . OpenAI などは、これまでのところほとんど精査されていませんが、この主張は、今後のデータ スクレイピングの取り組みに大きな疑問符を追加します。

次に、GDPR の「忘れられる権利」では、ユーザーは企業に対して個人情報の訂正または完全な削除を要求できます。 先制的に OpenAI プライバシーポリシーを更新しました これらのリクエストを容易にするために 議論 それらを処理することがどれほど複雑であるかを考えると、それらを処理することが技術的に可能かどうかについて 特定のデータを分離する これらの大規模な言語モデルに大量に投入されると。

OpenAI はまた、ユーザーから直接情報を収集します。 他のインターネット プラットフォームと同様に、 標準ユーザーデータの範囲 (例: 名前、連絡先情報、カードの詳細など)。 しかし、もっと重要なことは、ユーザーと ChatGPT とのやり取りを記録することです。 として FAQに記載されている、このデータは OpenAI の従業員が確認でき、そのモデルの将来のバージョンをトレーニングするために使用されます。 ボットをセラピストまたは医師として使用して、人々がChatGPTに尋ねる親密な質問を考えると、これは、同社があらゆる種類の機密データをすくい上げていることを意味します.

このデータの少なくとも一部は未成年者から収集された可能性があります。OpenAI のポリシーでは、「13 歳未満の子供から故意に個人情報を収集しない」と述べられていますが、厳密な年齢確認ゲートはありません。 これは、13 歳未満の人からのデータ収集を禁止し、(一部の国では) 16 歳未満の未成年者には保護者の同意を求める EU の規則とはうまくいきません。 と主張した ChatGPT の年齢フィルターの欠如により、未成年者は「発達度と自己認識に関して絶対に不適切な反応」にさらされます。

OpenAI はそのデータを使用する自由度を広く維持しており、一部の規制当局はこれを懸念しており、データの保存にはセキュリティ リスクが伴います。 サムスンなどの企業や JPモルガン 従業員が機密データをアップロードすることを恐れて、ジェネレーティブ AI ツールの使用を禁止しました。 実際、イタリアは、ChatGPT が深刻なデータ漏洩に見舞われ、ユーザーのチャット履歴と電子メール アドレスが公開された直後に禁止を発表しました。

ChatGPTの傾向 虚偽の情報を提供する 問題を引き起こす可能性もあります。 GDPR 規制は、すべての個人データが正確でなければならないと規定しており、これは GPDP がその発表で強調したことです。 それがどのように定義されているかによっては、ほとんどの AI テキスト ジェネレーターに問題を引き起こす可能性があります。幻覚」: クエリに対する実際に正しくない、または無関係な応答を表す、かわいらしい業界用語。 これは、オーストラリアの地方市長が OpenAI を名誉毀損で訴えると脅された ChatGPT が、贈収賄で刑務所に服役したと虚偽の主張をした後。

ChatGPT の人気と現在の AI 市場での優位性は、特に魅力的なターゲットになっていますが、Google と Bard や Microsoft と OpenAI を利用した Azure AI のような競合他社や協力者も精査に直面しない理由はありません. ChatGPTの前に、イタリアはチャットボットプラットフォームを禁止しました レプリカ 未成年者に関する情報を収集するためのものであり、これまでのところ禁止されています。

GDPR は強力な一連の法律ですが、AI 固有の問題に対処するために作成されたものではありません。 ルール する、 しかし、 地平線上にあるかもしれません。

2021 年に、EU はその最初の草案を提出しました。 人工知能法 (AIA)、GDPR と連携する法律。 この法律は、認識されたリスクに応じて AI ツールを管理し、「最小」 (スパム フィルターなど) から「高」 (法執行機関または教育用の AI ツール) または「受け入れられない」ため禁止 (社会信用システムなど) まであります。 昨年、ChatGPT のような大規模な言語モデルが急増した後、議員は現在、「基盤モデル」と「汎用 AI システム (GPAI)」 (LLM を含む大規模な AI システムの 2 つの用語) のルールを追加するために競争しています。 それらを次のように分類します 「リスクの高い」サービス。

AIA の規定は、データ保護にとどまりません。 最近提案された修正案は、企業に対し、ジェネレーティブ AI ツールの開発に使用された著作権で保護された素材を開示することを強制するものです。 これにより、かつて秘密にされていたデータセットが公開され、より多くの企業が侵害訴訟にさらされる可能性があり、すでに一部のサービスが打撃を受けています。

AIを規制するために特別に設計された法律は、2024年後半までヨーロッパで発効しない可能性があります

しかし、それを渡すにはしばらく時間がかかる場合があります。 EU議員 暫定的な AI 法の合意に達した 4月27日。 委員会は 5 月 11 日に草案の投票を行い、最終提案は 6 月中旬までに予定されています。 その後、欧州理事会、議会、および委員会は、 残りの紛争を解決する 法律施行前。 順調に行けば、2024年後半とやや遅れて採用される可能性がある 公式目標 ヨーロッパの 2024 年 5 月の選挙の。

今のところ、イタリアと OpenAI の論争は、規制当局と AI 企業がどのように交渉するかについての初期の見通しを提供します。 GPDP は、OpenAI が適合した場合、禁止を解除することを提案しました いくつかの提案された決議 4月30日まで。 これには、ChatGPT がデータを保存および処理する方法をユーザーに通知すること、そのデータを使用するための明示的な同意を求めること、ChatGPT によって生成された誤った個人情報を修正または削除する要求を促進すること、イタリアのユーザーがアカウントに登録するときに 18 歳以上であることを確認することを要求することが含まれます。 . OpenAIはヒットしませんでした 全て しかし、イタリアの規制当局をなだめ、イタリアでの ChatGPT へのアクセスを復元するのに十分な条件を満たしました。

OpenAI にはまだ達成すべき目標があります。 9 月 30 日までに、13 歳未満の未成年者を締め出し、10 代未満の未成年者には保護者の同意を求める、より厳しい年齢ゲートを作成する必要があります。 失敗した場合、それ自体が再びブロックされているように見える可能性があります。 しかし、少なくとも新しい法律が制定されるまでは、ヨーロッパがAI企業にとって許容できる行動と見なす例を提供しています.



コメントする

xxxbangole xtubemovies.info sex aunties stories
masala xvideos ultratube.mobi kerala girl sex
sexmove.com indianfuckblog.com new girl mms
سكس صبايا secretsporn.com مشاهدة افلام سيكس
pantyhose hentai hentai-site.net kawaii neko hentai
janani iyer hot pornofantasy.net tamilnadu sexy photo
indian sexy girls xbeegtube.mobi redtube,com
aishwarya rai sex image hd dalporn.net seksividos
كساس عرب annarivas.net فيلم منى فاروق
xnxxmovies.com redwap2.com debonairblogs.com
shakeela porn desisexy.org radhika kumaraswamy sex videos
نيك اون لاين thepornoexperience.com سكس اوربى مترجم
افلام s sexoyporno.org سكس مصري بلدى
www.indiansex..com tubster.net mrunmayi
abarenbow tengu hentainaked.com hunter x hunter hentai comics