4 月末までに、欧州議会は、ソーシャル スコアリング、予測ポリシング、インターネットから無差別にスクレイピングして写真を収集するアルゴリズム、公共スペースでのリアルタイムの生体認証など、禁止すべき慣行のリストに照準を合わせました。 しかし、木曜日、保守的な欧州人民党の国会議員は、生体認証の禁止を撤回すべきかどうかについて依然として疑問を呈していました. 「これは非常に分裂的な政治問題です。一部の政治勢力やグループはそれを犯罪と闘う勢力と見なし、進歩主義者のように社会的統制のシステムと見なす政治勢力やグループもあります」と、共同報告者でイタリア人のブランド・ベニフェイは言います。社会党と民主党の政治グループの MEP。
次に、企業の従業員を管理するために使用されるアルゴリズムや、政府が移行を管理するために使用するアルゴリズムなど、高リスクとしてフラグを立てる必要がある AI の種類についての話がありました。 これらは禁止されていません。 「しかし、それらの潜在的な意味のために、私はその言葉に下線を引いています 潜在的—私たちの権利と利益に関して、彼らはいくつかのコンプライアンス要件を通過し、それらのリスクが適切に軽減されていることを確認する必要があります.透明感のある。 開発者は、AI のトレーニングに使用したデータを示す必要があり、バイアスを排除するためにどのように積極的に試みたかを実証する必要があります。 また、施行のための中央ハブを作成するために、新しい AI 機関が設定されます。
ChatGPT などのジェネレーティブ AI ツールを展開している企業は、モデルが著作権で保護された素材でトレーニングされているかどうかを開示する必要があり、訴訟の可能性が高くなります。 また、MidJourney などのテキストまたは画像ジェネレーターも、自分自身が機械であることを識別し、人工的に生成されたものであることを示す方法でコンテンツをマークする必要があります。 また、ツールが児童虐待、テロ、ヘイトスピーチ、または EU 法に違反するその他の種類のコンテンツを生成しないようにする必要があります。
ロビー活動グループから否定的な注目を集めたくないという理由で匿名を希望したある人物は、ハイテク大手によるロビー活動を受けて、汎用 AI システムのルールの一部が 5 月の初めに骨抜きにされたと述べた。 ChatGPT などのツールの基礎となる基盤モデルの要件が、独立した専門家によって監査されるようになりました。
しかし議会は、ファンデーション モデルを市場に出す前にデータベースに登録することで合意したため、企業は何を販売し始めたかを EU に通知する必要があります。 「これは良いスタートです」と、シンクタンクである Future Society で欧州 AI ガバナンスのディレクターを務める Nicolas Moës 氏は言います。
を含むビッグテック企業によるロビー活動 アルファベットとマイクロソフト、世界中の議員が警戒する必要があると、別のシンクタンクであるAI Now Instituteのマネージングディレクターであるサラ・マイヤーズ・ウェストは言います. 「彼らがどのように政策環境を自分たちに有利に傾けようとしているのかについて、新たな戦略が見えてきていると思います」と彼女は言います。
欧州議会が最終的に結んだのは、すべての人を喜ばせようとする合意です。 「これは真の妥協案です」と、公に発言する権限がないことを理由に匿名を条件に語ったある国会議員は言います。 「誰もが同じように不幸です。」