聞こえたの 空軍のAIドローンについて 不正行為を行い、その運営者を攻撃した シミュレーションの中で?
この警告話は、米空軍のAIテスト・運用責任者であるタッカー・ハミルトン大佐が演説中に語った。 航空宇宙と防衛のイベント 先月末ロンドンで。 これには、コンピューターがビデオゲームやチェスや囲碁などのボードゲームをプレイするように訓練するために使用されてきた種類の学習アルゴリズムを利用し、それを地対空ミサイルを追跡して破壊するドローンを訓練するために使用することが含まれていたようです。
「人間のオペレーターは時々、その脅威を殺さないように指示することもありましたが、その脅威を殺したことで利益を得ました」とハミルトン氏がロンドンの聴衆に語ったことが広く報道された。 「それで、それは何をしたのですか? […] オペレーターが死亡したのは、その人物がオペレーターの目的達成を妨げたからです。」
聖なる T-800! これは、AI 専門家が、ますます巧妙で異端なアルゴリズムが実行する可能性があると警告し始めているのと同じようなことのように思えます。 もちろん、この話はすぐに口コミで広がり、いくつかの著名な人々が話題になりました。 ニュースサイト それを拾う、そしてTwitterはすぐに賑わった 注目の話題。
落とし穴が 1 つだけあります。実験は決して行われませんでした。
空軍報道官のアン・ステファネック氏は声明で、「空軍省はそのようなAIドローンシミュレーションを行っておらず、今後もAI技術の倫理的かつ責任ある使用に努めていく」と述べ、我々を安心させた。 「これは仮説的な思考実験であり、シミュレーションではありません。」
ハミルトン自身も、講演中に「言い間違えた」と述べ、記録を正そうと急いだ。
公平を期すために言うと、軍隊は、まだ存在しない仮想シナリオやテクノロジーを題材とした卓上「戦争ゲーム」演習を実施することがあります。
ハミルトン氏の「思考実験」も、彼が説明したものと同様の問題を示す実際の AI 研究から情報を得たものである可能性があります。
ChatGPT (今日の AI ブームの中心である、驚くほど賢いがイライラするほど欠陥のあるチャットボット) を開発した OpenAI は 2016 年に実験を実施し、特定の目的を与えられた AI アルゴリズムが時折誤動作する可能性があることを示しました。 同社の研究者は、ある AI エージェントが、ボートを運転するビデオ ゲームでスコアを稼ぐよう訓練されていることを発見しました。 ボートを衝突させ始めた より多くのポイントを獲得する方法であることが判明したため、オブジェクトに変換しました。
ただし、この種の誤動作は、理論的には可能ではありますが、システムの設計が正しくない限り、発生するはずがないことに注意することが重要です。
元米空軍調達次官補で、U2偵察機の一部の機能を強化アルゴリズムに担当させるプロジェクトを主導したウィル・ローパー氏は、AIアルゴリズムには航空機を攻撃する選択肢がまったくないと説明する。シミュレーション内のオペレーター。 それは、チェスのアルゴリズムが、これ以上駒を失わないようにするために盤をひっくり返せるようなものだと彼は言う。
AIが戦場で使用されることになった場合、「コンテナ化などのテクノロジーを使用してAIの『安全地帯』と、AIが立ち入りできないことを証明できる禁止区域を作り出すソフトウェアセキュリティアーキテクチャから始まることになるだろう」ローパー氏は言う。
これは、AI をめぐる実存的な不安の現在の瞬間に私たちを引き戻します。 ChatGPTの背後にある言語モデルのような言語モデルの改善のスピードは、この技術に取り組んでいる多くの人々を含む一部の専門家を動揺させ、より高度なアルゴリズムの開発の一時停止を求める声や、核と同等の人類への脅威についての警告を引き起こしている。兵器とパンデミック。
AI アルゴリズムが人間に敵対するという突飛な話を解析する場合、これらの警告は明らかに役に立ちません。 そして、生成型 AI が社会の偏見を悪化させたり、偽情報を広めたりする可能性など、取り組むべき真の問題がある場合、混乱はほとんど必要ありません。
しかし、軍事 AI の不正行為に関するこのミームは、最先端のアルゴリズムの仕組みに関する透明性の向上、それらを安全に構築して配備する方法に焦点を当てたさらなる研究とエンジニアリング、そして配備されているものを一般の人々に理解してもらうためのより良い方法が緊急に必要であることを物語っています。 これらは、他の軍隊と同様に、最新の進歩を急いで利用しようとしているため、特に重要であることが判明する可能性があります。