先週の木曜日、 米国務省は、兵器を含む、AI を利用する軍事システムの開発、テスト、検証に関する新しいビジョンを概説しました。
の 人工知能と自律性の責任ある軍事利用に関する政治宣言 テクノロジーにとって重要な時期に、軍事用 AI の開発を導くための米国による試みを表しています。 この文書は米軍を法的に拘束するものではありませんが、同盟国がその原則に同意し、責任を持って AI システムを構築するための一種の世界標準を作成することが期待されています。
とりわけ、この宣言は、軍事用 AI は国際法に従って開発される必要があること、各国は技術の基礎となる原則について透明性を持たなければならないこと、AI システムの性能を検証するために高い基準が実装されていることを述べています。 また、核兵器の使用に関する決定は人間だけが行うべきだとも述べています。
自律兵器システムに関して言えば、米軍の指導者は、致命的な力の使用に関する決定のために人間が「ループ」にとどまるとしばしば安心させてきました. しかし 公式の方針、2012 年に DOD によって最初に発行され、今年更新されました。 必要ありません これは事実です。
自律型兵器を国際的に禁止しようとする試みは、これまでのところ失敗に終わっています。 の 国際赤十字 などのキャンペーン グループ 殺人ロボットを止める 米国、ロシア、イスラエル、韓国、オーストラリアなどの主要国は、国連での合意を求めてきましたが、合意に応じる意思がないことを証明しています。
その理由の 1 つは、国防総省内の多くの人が、兵器以外のシステムを含め、軍全体での AI の使用の増加を不可欠であり、避けられないと考えていることです。 彼らは、禁止は米国の進歩を遅らせ、中国やロシアなどの敵対国と比較して米国の技術を不利にするだろうと主張している. ウクライナでの戦争は、認識して行動するのに役立つ機械学習アルゴリズムのおかげで能力が向上している、安価で使い捨てのドローンの形での自律性が、紛争での優位性を提供するのにいかに急速に役立つかを示しています.
今月初め、私はかつて Google の CEO だったエリック シュミットの個人的な使命について書きました。それは、ペンタゴンの AI を強化して、米国が中国に遅れをとらないようにすることです。 重要な軍事システムに AI を採用する取り組みと、それがどのように米国の軍事戦略の中心になりつつあるかについての数か月にわたるレポートから浮かび上がったのは、ほんの 1 つの話でした。たとえ関連する技術の多くが発生したばかりで、いかなる危機においてもテストされていません。
外交問題評議会の研究員であるローレン・カーンは、新しい米国の宣言を、世界中の軍用 AI のより責任ある使用のための潜在的な構成要素として歓迎しています。
効果を発揮するには超人的な速度で対応する必要があるミサイル防衛など、限られた状況で人間の直接的な制御なしに機能する兵器をすでにいくつかの国が保有しています。 AI の使用が拡大するということは、システムが自律的に動作するシナリオが増えることを意味する可能性があります。たとえば、ドローンが通信範囲外で動作している場合や、人間が管理するには複雑すぎる群れで動作している場合などです。
武器に AI が必要であるという宣言、特に AI 技術を開発している企業からのいくつかの宣言は、まだ少し大げさなように思えます。 があった 最近の紛争で完全自律型兵器が使用されているという報告 そしての 標的を絞った軍事攻撃を支援する AI、しかし、これらは検証されていません。実際、多くの兵士は、絶対確実とはほど遠いアルゴリズムに依存するシステムに警戒している可能性があります.
それでも、自律型兵器を禁止できない場合、その開発は継続されます。 そのため、関連する AI が期待どおりに動作することを確認することが不可欠になります。たとえ、米国の新しい宣言にあるような意図を完全に実行するために必要なエンジニアリングがまだ完成していなくてもです。