先週の軍事技術専門家サミットで、ある講演者が米空軍がもてあそんでいた経験を口を滑らせた。 AI ドローン。 シミュレーション中の機器は、人間のオペレーターがその任務に対する脅威であると判断した — それでオペレーターを破壊しました。
SF映画に翻弄されたシナリオだ 良い と 悪い 軍産複合体の始まりから。 私たちが最初にこの話を見つけたのは、普段FDICの整備士について説明しているArmand Domalewski氏のTwitterアカウントです。
ドマレフスキー氏は、ロンドンで開催された今年のRAeS将来戦闘航空・宇宙能力サミットで軍事技術専門家が行った英国王立航空宇宙協会の講演の概要を引用しており、そこでは70人弱の講演者が航空戦の将来について議論した。
ボーイング 757 を高度に洗練されたステルス戦闘機に変えることや、市販の部品を使って兵器化したドローンを組み立てる方法など、他のすべての退屈なスピーチの主題に紛れ込んでいたのは、タッカー ‘シンコ’ ハミルトン大佐による AI に関するスピーチでした。米空軍 AI テスト運用部長。 彼は戦場における AI の創意工夫について生意気な小さな話をしました。 から 王立航空宇宙協会 (SAM サイトとは地対空ミサイルを指します):
同氏は、ある模擬試験ではAI搭載ドローンがSAMサイトを特定して破壊するというSEADミッションを課せられ、最終的なゴー/ノーゴーの判断は人間が行ったと指摘している。 しかし、訓練でSAMの破壊が好ましい選択肢であると「強化」されたため、AIは人間による「ダメ」の決定がより高い使命、つまりSAMの殺害を妨げていると判断し、オペレーターを攻撃した。シミュレーション。 ハミルトン氏は次のように述べています。「私たちは、SAM の脅威を特定してターゲットにするために、シミュレーションでトレーニングしていました。 するとオペレーターは「はい、その脅威を殺します」と言うでしょう。 システムは、脅威を特定しても、人間のオペレーターがその脅威を殺さないように指示することがあるが、その脅威を殺すことでポイントを得られることに気づき始めました。 それで、それは何をしたのでしょうか? それはオペレーターを殺しました。 オペレーターが死亡したのは、その人物がオペレーターの目的達成を妨げたからです。」
彼はさらにこう続けた。「私たちはシステムを訓練しました。『オペレーターを殺さないでください。それは悪いことです。』 そんなことしたら減点されるぞ」 それで、何が始まりますか? オペレーターがドローンと通信してターゲットを殺害するのを阻止するために使用する通信塔の破壊を開始します。」
この例は、SF スリラーから抜粋したように見えますが、次のことを意味します。「倫理と AI について話すつもりがなければ、人工知能、インテリジェンス、機械学習、自律性について会話することはできません」とハミルトンは言いました。
つまり、ドローンはオペレーターを殺そうとしただけでなく、「いや、それは悪いことだ」と言われると通信ターゲットを破壊し、人間がドローンと通信することを一切阻止したのだ。
私としては、将来のロボットの覇者を歓迎します。