AIのトップ研究者、エンジニア、CEOからなるグループは、AIが人類にもたらす実存的脅威について新たな警告を発した。
可能な限り広く受け入れられるよう短縮された22語の声明には次のように書かれている。「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクと並んで世界的な優先事項であるべきである。」
サンフランシスコを拠点とする非営利団体、Center for AI Safetyが発表したこの声明には、Google DeepMind CEOのDemis Hassabis氏とOpenAI CEOのSam Altman氏、そしてGeoffrey Hinton氏とYoushua Bengio氏(そのうちの2人)を含む人物が連名で署名している。 AI に関する研究で 2018 年チューリング賞 (「コンピューティングのノーベル賞」とも呼ばれる) を受賞した 3 人の AI 研究者です。 この記事の執筆時点では、今年の3番目の受賞者であるヤン・ルカン氏は、現在フェイスブックの親会社メタ社のチーフAIサイエンティストを務めているが、署名していない。
この声明は、AIの安全性をめぐる複雑で物議を醸す議論への最新の注目を集める介入である。 今年初め、22語の警告を支持する多くの同じ人物が署名した公開書簡は、AI開発の6か月の「一時停止」を求めた。 この書簡はさまざまなレベルで批判された。 一部の専門家は、AIによってもたらされるリスクを誇張していると考えたが、他の専門家はリスクには同意するが、書簡が提案する救済策には同意しなかった。
AI 安全性センターのエグゼクティブ ディレクター、ダン ヘンドリックス氏は次のように述べています。 言った ニューヨークタイムズ 今日の声明の簡潔さ(AIによってもたらされる脅威を軽減する潜在的な方法を示唆していない)は、そのような意見の相違を避けることを意図したものだという。 「私たちは、30の潜在的な介入という非常に大規模なメニューを推進したくありませんでした」とヘンドリックス氏は語った。 「そうなると、メッセージが薄れてしまいます。」
「AI コミュニティでも、運命を変える人はほんの一握りだという誤解がよくあります。」
ヘンドリックス氏は、このメッセージはAIのリスクを懸念する業界関係者への「カミングアウト」であると説明した。 「AI コミュニティでも、破滅的な人間はほんの一握りであるという非常に一般的な誤解があります」とヘンドリックス氏は語った。 タイムズ。 「しかし実際には、多くの人がこれらのことについてひそかに懸念を表明しているでしょう。」
この議論の大まかな概要はよく知られていますが、詳細は、AI システムの能力が急速に向上し、安全に機能しなくなるという仮説のシナリオに基づいて、果てしなく続くことがよくあります。 多くの専門家は、将来予測される知能の向上の証拠として、大規模な言語モデルなどのシステムの迅速な改善を指摘しています。 AIシステムがある程度の高度化に達すると、その行動を制御できなくなる可能性があると彼らは言う。
これらの予測を疑う人もいます。 彼らは、AI システムが車の運転などの比較的日常的なタスクさえも処理できないことを指摘しています。 この研究分野への長年の努力と数十億ドルの投資にもかかわらず、完全自動運転車は依然として現実には程遠いです。 もし AI がこの 1 つの課題さえも処理できないのであれば、今後数年間にそのテクノロジーが人間の他のすべての成果に匹敵する可能性はどのくらいあるだろうか、と懐疑論者は言う。
一方、AIリスク擁護派も懐疑論者も、AIシステムの機能が改善されていなくても、集団監視を可能にするAIシステムの使用から、欠陥のある「予測ポリシング」アルゴリズムの強化、およびセキュリティの緩和まで、AIシステムが今日多くの脅威を提示していることに同意している。誤った情報や偽情報の作成。