水曜日、OpenAI CEOのサム・アルトマン氏がユニバーシティ・カレッジ・ロンドンで講演するのを観ようと、数百人の行列が通りの奥まで伸びた。 待っている人々は、日光の下で同社とChatGPTの使用経験について噂話をし、一方で少数の抗議者は入り口ドアの前で厳しい警告を発した:OpenAIとそれに類似した企業は、危害を及ぼす前に高度なAIシステムの開発を中止する必要がある人類。
「いいか、彼は恨みを売っているのかもしれない。 彼がそうであることを心から願っている」と抗議参加者の一人、オックスフォード大学で太陽地球工学と実存リスクを研究している学生、ギデオン・フューターマンはアルトマンについて語った。 「しかし、その場合、彼は十分な量でシステムを誇大宣伝しています。 知られている 害を及ぼします。 とにかく彼らを止めるべきだろう。 もし彼の言うことが正しく、彼が一般的にインテリジェントなシステムを構築しているとしたら、危険ははるかに大きくなります。」
しかし、アルトマンが屋内のステージに上がると熱烈な歓迎を受けた。 OpenAIのCEOは、先週米国で行われた最近の(そして同様に愛想の良い)上院公聴会の後、現在世界旅行のようなものを行っている。 これまでにフランスのエマニュエル・マクロン大統領、ポーランドのマテウシュ・モラヴィエツキ首相、スペインのペドロ・サンチェス首相と会談している。 目的は 2 つあるようです。ChatGPT によって引き起こされた AI への関心の爆発に対する不安を鎮めること、そして AI 規制に関する議論に先んじることです。
ロンドンでアルトマン氏はおなじみの論点を繰り返し、人々がAIの影響を心配するのは当然だが、彼の考えではAIの潜在的な利益ははるかに大きいと指摘した。 繰り返しになりますが、彼は規制の可能性を歓迎しましたが、それは適切な種類のものに限られていました。 同氏は「伝統的な欧州のアプローチと伝統的な米国のアプローチの間の何か」を見たいと述べた。 つまり、多少の規制はあるものの、過剰ではないということです。 同氏は、ルールが多すぎると中小企業やオープンソース運動に悪影響を与える可能性があると強調した。
「少なくとも核物質を扱うのと同じくらい真剣にこの問題を扱うようにしたいと思います。」
「その一方で、誰かが暗号を解読して超知能を構築するとしたら、それをどう定義したいにせよ、ほとんどの人は同意すると思います」と彼は言った。 [then] それに関するいくつかの世界的なルールが適切である…私は、これを、例えば核物質を扱うのと少なくとも同じくらい真剣に扱うようにしたい。 大規模システム向けに、 できる 超知性を生み出すのだ。」
OpenAIの批判者らによると、汎用人工知能(AGI)としても知られる超知能を規制するというこの話は、アルトマン氏がAIシステムの現在の害から注意をそらし、議員や国民の目を科学の話題からそらすための修辞的なフェイントだという。 -fi シナリオ。
アルトマンのような人々は「将来に向けて責任を明確に位置づけている」とAI Now研究所のマネージングディレクター、サラ・マイヤーズ・ウェスト氏は語った。 ザ・ヴァージ 先週。 その代わりに、私たちはAIシステムによって生み出される現在既知の脅威について話し合うべきだとウェスト氏は言う。それは、欠陥のある予測取り締まりから、人種的に偏った顔認識、誤った情報の拡散に至るまでである。
アルトマン氏は現在の被害についてはあまり触れなかったが、誤情報の拡散に関してはAIシステムの「インタラクティブでパーソナライズされた説得力」を特に懸念していると述べ、誤情報の話題については一時言及した。 彼のインタビュアーである著者のアジーム・アズハル氏は、そのようなシナリオの 1 つとして、AI システムが人工音声を使用して誰かに電話をかけ、受信者を未知の目的に説得することが含まれる可能性があると示唆しました。 アルトマン氏は、「それは難しいことだと思う。やるべきことはたくさんある」と語った。
しかし、将来については希望を持っていると彼は語った。 非常に期待が持てます。 アルトマン氏は、現在のAIツールでも世界の不平等は軽減され、「この技術革命の向こう側にはもっと多くの仕事」が生まれるだろうと信じていると述べた。
「このテクノロジーは世界全体を引き上げます。」
「私の世界の基本モデルは、知性のコストとエネルギーのコストは、世界を制限する 2 つの試薬のような 2 つの限られたインプットであるというものです。 そして、それらを劇的に安くし、劇的にアクセスしやすくすることができれば、率直に言って、金持ちよりも貧しい人々を助けることになります」と彼は語った。 「このテクノロジーは世界全体を引き上げます。」
同氏はまた、「連携」を通じて、ますます強力になるAIシステムを制御下に置く科学者の能力についても楽観的だった。 (調整は AI 研究の広範なトピックであり、簡単に説明すると「ソフトウェアに、私たちが望まないことを行わず、私たちが望むことを実行させる」と説明できます。)
「超知能システムの調整がどのように機能するかについて、私たちが発表したアイデアはたくさんありますが、それは技術的に解決可能な問題だと信じています」とアルトマン氏は語った。 「そして今では、数年前よりもその答えに自信を持っています。 あまり良くないと思われる道があるので、それは避けたいと思います。 しかし、正直に言って、私は物事が現在進んでいる軌道にかなり満足しています。」
しかし、会談以外では、抗議活動参加者らは納得していなかった。 一つは、UCLで政治学と倫理を学ぶ修士課程の学生、アリスター・スチュワート氏が語った。 ザ・ヴァージ 同氏は「先進システムに対するある種の一時停止または一時停止」を見たいと考えていた。これは、AI研究者やイーロン・マスクのような著名なテクノロジー関係者が署名した最近の公開書簡で提唱されているのと同じアプローチだ。 スチュワート氏は、AIによる豊かな未来というアルトマン氏のビジョンが必ずしも間違っているとは思わないが、事態を成り行きに任せるには「不確実性が大きすぎる」と語った。
アルトマンはこの派閥を説得できるだろうか? スチュワート氏によると、OpenAIのCEOはステージに上がった後、デモ参加者らと話をするために出てきたが、スチュワート氏の考えを変えることはできなかったという。 同氏によると、彼らはOpenAIの安全性へのアプローチについて1分ほど話し合ったという。これには、AIシステムの機能とガードレールの同時開発が含まれる。
「以前よりも少し不安になって会話を終えました」とスチュワートさんは語った。 「彼がどのような情報を持っていて、それがうまくいくと思わせるのかわかりません。」