英国政府が先週、今秋に「世界的な」AI安全性サミットを主催する計画を発表したことを受け、リシ・スナック首相は別のちょっとしたニュースでロンドン・テック・ウィークをスタートさせ、OpenAI、Google DeepMind、Anthropicが取り組んでいることをカンファレンスの参加者に伝えた。評価と安全性の研究をサポートするために、AI モデルへの「早期または優先アクセス」を提供します。
適切に規制されていない場合、この技術が存続に関わる、さらには絶滅レベルのリスクを引き起こす可能性があると警告するAI巨人による数々の介入を受けて、スナク氏はここ数週間でAIの安全性の話題への転換が加速している。
「私たちは最先端のことをやっていきます」 [AI] ここ英国で安全性の研究を行う」とスナク氏は今日誓った。 「専門家対策本部に 1 億ポンドを投入し、他のどの政府よりも多くの資金を AI の安全性に充てています。
この AI 安全タスクフォースは、AI 基盤モデルに焦点を当てます。 政府も言った。
「私たちは、Google DeepMind、OpenAI、Anthropic などのフロンティア ラボと協力しています」と Sunak 氏は付け加えました。 「そして、より良い評価を構築し、これらのシステムの機会とリスクをより深く理解するのに役立つよう、研究と安全を目的としたモデルへの早期または優先アクセスを提供することを約束したことを発表できることを嬉しく思います。」
首相はまた、AI安全サミットの開催に関する以前の発表を繰り返し、この取り組みを気候変動への取り組みについて世界的な賛同を得ることを目指すCOP気候会議になぞらえようとしている。
「我々がCOPを通じて気候変動に取り組むために団結するのと同じように、英国は今年後半に世界規模のAI安全性に関する史上初のサミットを主催する予定だ」と同氏は述べ、さらに「英国を単なる知的拠点ではなく、地理的拠点にしたいと考えている」と付け加えた。 、世界的な AI 安全規制の。」
AI の安全性を宣伝することは、スナク政府にとって顕著なギアチェンジです。
つい最近の 3 月には、完全な AI チアリーダー モードになっていました。当時のホワイトペーパーでは、「AI を支持する」と述べていました。 AI規制に対するイノベーション推進のアプローチ」。 この論文で示されたアプローチは、人工知能 (または専用の AI ウォッチドッグ) のための特別な法律の必要性を回避し、いくつかの「柔軟な原則」を定めることを支持し、安全性への懸念を軽視しました。 政府はまた、AIアプリの監督は独占禁止監視機関やデータ保護当局などの既存の規制機関によって行われるべきだと提案した。
数か月が経ち、スナンク氏は現在、英国に世界的なAI安全監視機関を設置したいという観点から話している。 あるいは少なくとも、英国が学習アルゴリズムの出力を評価する方法に関する研究を独占することで、AIの安全性についての議論を主導することを望んでいる。
生成型 AI の急速な開発と、テクノロジーが制御不能になる可能性を警告するさまざまなテクノロジー大手や AI 業界関係者の公的発表が相まって、ダウニング街では迅速な戦略の再考につながったようです。
AIに関する政府のムードミュージックが変わる直前に、首相とOpenAI、DeepMind、AnthropicのCEOらの間で会談が行われるなど、ここ数週間、AI大手が直接スナク氏の耳を傾けていることも注目に値する。
この AI 巨人 3 社が英国に自社のモデルへの高度なアクセスを提供するという公約を堅持すれば、アルゴリズムの透明性を義務付ける法的監視体制が発足する前も含めて、効果的な評価および監査技術の開発に関する研究を同国が主導するチャンスがある。たとえば、欧州連合の AI 法案は 2026 年まで法的に発効しないと予想されています。ただし、EU のデジタル サービス法はすでに発効しており、テクノロジー大手にある程度のアルゴリズムの透明性を求めています)。
同時に、英国が初期段階にある AI の安全性への取り組みを業界に占領されて脆弱になるリスクもあります。 そして、AI 大手が自社のシステムへの選択的アクセスを提供することで AI の安全性研究に関する話題を独占できれば、自社のビジネスに適用される将来の英国の AI 規則を形成するのに有利な立場にある可能性があります。
法的拘束力のある AI 安全性フレームワークが適用される前に、AI テクノロジー大手が自社の商用技術の安全性に関する公的資金による研究に密接に関与していることは、AI の安全性をどのように検討するか、どのコンポーネント、トピック、およびどのような枠組みを構築するかを少なくとも検討する余地があることを示唆しています。テーマが優先されます (したがって、軽視されます)。 そして、どのような種類の研究が行われるかは、それらが提供するアクセスの量に依存する可能性があるため、影響を与えることによっても可能です。
一方、AI倫理学者らは、「超知能」AIが人間にもたらすリスクについての見出しを賑わす不安が、偏見や差別、プライバシー侵害、著作権侵害、環境資源など、既存のAI技術がすでに生み出している現実世界の害悪に関する議論をかき消していると長年警告してきた。搾取。
したがって、英国政府はAI巨人の賛同をPRクーデターと見なすかもしれないが、AIサミットと広範なAI安全への取り組みがしっかりとした信頼できる結果を生み出すためには、独立した研究者、市民社会団体、および次のような団体の参加を確保する必要がある。 「優秀な AI 企業」と地元の学者の間のパートナーシップ計画を宣伝するだけでなく、自動化による危害のリスクに不釣り合いにさらされている 学術研究はすでに多くの場合、大手テクノロジー企業からの資金提供に依存しています。。