ホワイトハウス は、Amazon、Google、Meta、Microsoft、OpenAI を含む主要な AI 開発者と、有害な AI モデルが世界に公開されるのを防ぐための措置を講じることを約束する契約を締結しました。
ホワイトハウスが「自発的コミットメント」と呼ぶこの協定に基づき、両社は新しいAIモデルが公開される前に内部テストを実施し、外部テストを許可することを約束している。 このテストでは、偏ったまたは差別的な出力、サイバーセキュリティの欠陥、より広範な社会的危害のリスクなどの問題が検出されます。 OpenAIのChatGPTの注目すべきライバルの開発者であるスタートアップのAnthropicとInflectionもこの契約に参加した。
ホワイトハウスのAI担当特別補佐官ベン・ブキャナン氏は昨日の会見で記者団に対し、「企業には自社の製品を一般に導入する前に、自社のAIシステムの安全性と機能をテストすることで、製品が安全であることを確認する義務がある」と語った。 企業が注意するよう求められたリスクには、プライバシー侵害や生物学的脅威への潜在的寄与さえ含まれます。 両社はまた、システムの限界と、それがもたらす可能性のあるセキュリティおよび社会的リスクを公的に報告することを約束しました。
この契約では、両社がAIによって生成された音声と画像を人々が簡単に識別できるようにする透かしシステムを開発するとも述べている。 OpenAIはすでにDall-E画像生成器で生成された画像に透かしを追加しており、GoogleはAI生成画像用に同様の技術を開発中であると述べた。 人々が何が本物で何が偽物であるかを識別できるようにすることは、政治運動としてますます大きな課題となっています 生成AIに注目しているようだ 2024年の米国選挙を控えて。
テキストや画像を作成できる生成 AI システムの最近の進歩により、Web 検索や推薦状の作成などのタスクにそのテクノロジーを適用する企業間で新たな AI 軍拡競争が引き起こされました。 しかし、新しいアルゴリズムは、AIが性差別や人種差別などの抑圧的な社会システムを強化したり、選挙に関する偽情報を増大させたり、サイバー犯罪のツールになったりするのではないかという新たな懸念も引き起こしている。 その結果、ワシントン DC を含む世界の多くの地域の規制当局や議員は、導入前に AI を評価する要件など、新たな規制を求める声が高まっています。
この合意によって大手AI企業の事業運営がどの程度変わるかは不明だ。 すでに、テクノロジーの潜在的なマイナス面に対する意識の高まりにより、テクノロジー企業が AI のポリシーとテストに従事する人材を雇用することが一般的になっています。 Google にはシステムをテストするチームがあり、使用目的や倫理的考慮事項などの情報を公開しています。 特定の AI モデルの場合。 Meta と OpenAI は、外部の専門家を招いて、レッドチームと呼ばれるアプローチで自社のモデルを壊そうとすることがあります。
Microsoftの社長ブラッド・スミス氏はブログ投稿で、「安全性、セキュリティ、信頼という永続的な原則に導かれ、自主的な取り組みは高度なAIモデルによってもたらされるリスクに対処し、レッドチームテストや透明性レポートの発行など、エコシステム全体を前進させる特定の慣行の採用を促進するものである」と述べた。
この協定で企業が注意を払うと約束している潜在的な社会リスクには、AIシステムの影響に関する研究で現在一般的に言及されている懸念である、AIモデルのトレーニングによる二酸化炭素排出量は含まれていない。 ChatGPT のようなシステムを作成するには、長時間稼働する何千もの高性能コンピュータ プロセッサが必要になる場合があります。