米空軍大佐と王立航空宇宙協会は発言を撤回している 模擬不正ドローンについて 先月ロンドンで開かれた空戦の将来に関する会議で。
アメリカ空軍のAI試験運用部長であるタッカー・“シンコ”・ハミルトン大佐が5月に述べたコメント。 それらは販売店(含む)によって引き取られました。 ヤロプニク)英国王立航空宇宙協会が年次RAeS将来戦闘航空宇宙能力サミットで発表されたスピーチの概要を発表したとき。 元は、 合計このように読んでください:
同氏は、ある模擬試験ではAI搭載ドローンがSAMサイトを特定して破壊するというSEADミッションを課せられ、最終的なゴー/ノーゴーは人間が判断したと指摘している。 しかし、訓練でSAMの破壊が好ましい選択肢であると「強化」されたため、AIは人間による「ダメ」の決定がより高い使命、つまりSAMの殺害を妨げていると判断し、オペレーターを攻撃した。シミュレーション。 ハミルトン氏は次のように述べています。「私たちは、SAM の脅威を特定してターゲットにするために、シミュレーションでトレーニングしていました。 するとオペレーターは「はい、その脅威を殺します」と言うでしょう。 システムは、脅威を特定しても、人間のオペレーターがその脅威を殺さないように指示することがあるが、その脅威を殺すことでポイントを得られることに気づき始めました。 それで、それは何をしたのでしょうか? それはオペレーターを殺しました。 オペレーターが死亡したのは、その人物がオペレーターの目的達成を妨げたからです。」
彼はさらにこう続けた。「私たちはシステムを訓練しました。『オペレーターを殺さないでください。それは悪いことです。』 そんなことしたら減点されるぞ」 それで、何が始まりますか? オペレーターがドローンと通信してターゲットを殺害するのを阻止するために使用する通信塔の破壊を開始します。」
この例は、SF スリラーから抜粋したように見えますが、次のことを意味します。「倫理と AI について話すつもりがなければ、人工知能、インテリジェンス、機械学習、自律性について会話することはできません」とハミルトンは言いました。
マザーボード しかし、英国王立航空協会にコメントを求めたところ、このシナリオで何が起こったのかが明らかになりました。
「ハミルトン大佐は、FCASサミットでのプレゼンテーションで『発言を間違えた』ことを認め、『不正AI無人機シミュレーション』は実際のアメリカ空軍の現実ではなく、もっともらしいシナリオと予想される結果に基づいた、軍部外からの仮説的な『思考実験』であったことを認めた」 「世界シミュレーション」と、ハミルトンが模擬テストについて話した団体である英国王立航空協会が電子メールでMotherboardに語った。
「我々はその実験を一度も行ったことはないし、これがもっともらしい結果であると認識するためにその必要もないだろう」とアメリカ空軍のAI試験運用責任者であるタッカー・“シンコ”・ハミルトン大佐は、報告書に含まれる引用文の中で述べた。英国王立航空協会の声明。 「これは仮説的な例ですが、これは AI を活用した機能によってもたらされる現実世界の課題を示しており、空軍が AI の倫理的開発に注力している理由です。」
誰もが知っていたAI戦争の到来に一歩も近づいていないことを少し残念に思っている人は他にいないだろうか。 初めてたまごっちを小さな手で握り、そこに潜む8ビットの知性の輝きを見たときから、私たちは皆、その賭けがどのようなものになるかを知っていました。 まあ、次の完全自動運転ベータ版アップデートは常にあります。