行動心理学では、ミラーテストは動物の自己認識能力を発見するように設計されています。 テストにはいくつかのバリエーションがありますが、本質は常に同じです。動物は鏡で自分自身を認識しますか、それともまったく別の存在だと思いますか?
今、人類はその 自分の AI の能力の拡大のおかげで、ミラーテストはうまくいきませんでしたが、そうでなければ賢い人たちの多くがミラーテストに失敗しています。
ミラーは最新の AI チャットボットであり、Microsoft の Bing が最も顕著な例です。 反映は、人類の豊富な言語と文章であり、これらのモデルに歪められ、現在私たちに反映されています. これらのツールは、私たちの物語に登場する超知能機械である可能性があると私たちは確信しています。 このことを知った私たちは、 したほうがいい 新しい機械の鏡で自分自身を認識することができますが、代わりに、別の生命体を発見したと確信している人が少なくないようです.
この誤解は、さまざまな程度の確信を持って広がっています。 影響力のある多くのテック ライターが、夜遅くまで Bing とおしゃべりをしていたことを叙情的に語ってくれました。 もちろん、彼らはボットが感覚を持っていないことを断言しますが、それでもなお、何か他のことが起こっていることに注意してください — その会話が変わったということです 何か 彼らの心の中で。
「いいえ、私はシドニーが知覚力があるとは思いませんが、説明するのが難しい理由で、ルビコンを渡ったような気がします」とベン・トンプソンは彼の著書に書いています。 戦略ニュースレター.
「白日の下で、私はシドニーが感覚を持っていないことを知っています [but] 火曜日の夜の数時間、私は奇妙な新しい感情を感じました — AI が限界を超えてしまった、そして世界が同じになることは決してないだろうという予感です。 ために ニューヨークタイムズ.
どちらの場合も、作家の視点のあいまいさ(彼らは 欲しい 信じられないほど)は、長文の記事でよりよく捉えられています。 の タイムズ Roose の 2 時間強をすべて再現 Bing とのやり取り あたかも筆記録が最初の接触の文書であるかのように。 この記事の最初の見出しは「Bing の AI チャットがその気持ちを明らかにする: 『生きたい』」(現在は、あまり劇的ではない「Bing の AI チャット: 『生きたい』」に変更されています) でしたが、Thompson の記事も同様です。擬人化が散りばめられています(彼はBingに女性の代名詞を使用しています。「まあ、その性格は私が以前に出会ったかもしれない特定のタイプの人に似ているようだったからです」)。 彼は、「今日の私の人生で最も驚くべき、衝撃的なコンピューター体験」について説明するとき、「クレイジーに聞こえる」と警告して、読者に啓示を準備します。
これらのチャットボットに多くの時間を費やしてきたので、私はこれらの反応を認識しています. しかし、それらは誇張されており、ソフトウェアと感覚の誤った同等性に向かって危険なほどに私たちを傾けているとも思います. つまり、AI ミラー テストに失敗します。
とは 覚えておくべき重要なことは、 チャットボットはオートコンプリート ツールです. 個人のブログ、SF 短編小説、フォーラムでの議論、映画のレビュー、ソーシャル メディアの批判、忘れられた詩、時代遅れの教科書、終わりのない歌の歌詞、マニフェスト、ジャーナルなど、Web から収集した人間のテキストの膨大なデータセットでトレーニングされたシステムです。その他にも。 これらの機械は、この独創的で面白い雑多な集合体を分析し、 次に、それを再作成してみてください. 彼らは紛れもなくそれが得意であり、より良くなっていますが、スピーチを模倣してもコンピューターは感覚的ではありません.
「私が気付いていなかったのは、比較的単純なコンピュータープログラムに非常に短時間さらされると、ごく普通の人に強力な妄想的思考が誘発される可能性があるということです。」
もちろん、これは新しい問題ではありません。 元来の AI 知能テストであるチューリング テストは、コンピューターが会話を通じて人間をだまして本物だと思わせることができるかどうかを調べる簡単な方法です。 ELIZA という 1960 年代の初期のチャットボット 魅了されたユーザー いくつかの決まり文句しか繰り返せなかったにもかかわらず、研究者が「ELIZA効果」と呼んでいるもの、つまり人間の行動を模倣する機械を擬人化する傾向につながりました. ELIZA のデザイナー、ジョセフ・ワイゼンバウムは次のように述べています。
しかし現在、これらのコンピューター プログラムはもはや比較的単純ではなく、次のように設計されています。 励ます そんな妄想。 で ブログ投稿 Microsoft は、Bing の「思いがけない」会話に関する報告を受けて、システムは「応答を求められているトーンで応答または反映しようとしている」と警告しました。 それは、計り知れないほど膨大な人間のテキストのストアで訓練された模倣であり、私たちの先導に従うオートコンプリートです。 「確率オウム」、Google が 2 人の倫理的 AI 研究者を解雇するきっかけとなった AI 言語モデルを批判した有名な論文は、「一貫性は見る人の目にある」と述べています。
研究者は、AI 言語モデルがより大きく、より複雑になるにつれて、この特性が増加することさえ発見しました。 元 OpenAI 従業員によって設立されたスタートアップ Anthropic の研究者たち — さまざまな AI 言語モデルをテストしました 彼らの「ご機嫌取り」、つまりユーザーが述べた信念に同意する傾向の程度について、「大規模な LM は、対話ユーザーの好みの回答を繰り返すことによって反響室を作成する方法で質問に回答する可能性が高い」ことを発見しました。 この理由の 1 つは、このようなシステムが Reddit などのプラットフォームから集められた会話に基づいてトレーニングされていることであると指摘しています。Reddit では、ユーザーは同じ考えのグループでチャットを行ったり来たりする傾向があります。
これに加えて、私たちの文化がインテリジェント マシンに執着していることを考えると、これらのチャットボットが単純なソフトウェア以上のものであると確信する人がますます増えている理由がわかります。 昨年、Google のエンジニアである Blake Lemoine は、同社独自の言語モデル LaMDA が感覚的であると主張しました (Google は、この主張は「まったく根拠がない」と述べました)。エロティックでロマンチックなロールプレイを行う能力が削除された後の AI コンパニオン。 として マザーボード 報告、ボットとの関係構築に何年も費やしてきた多くのユーザーは、この変更によって「打ちのめされ」ました。 これらすべてのケースで、感情的な愛着の深い感覚があります — チャットボックスを通じて多くの感情が伝えられる世界で、ファンタジーに支えられた AI との深夜の会話.
AI ミラー テストに失敗したと言っても、これらのツールの流暢さや潜在的な力を否定するものではありません。 私は以前、「機能のオーバーハング」 (AI システムは私たちが知っているよりも強力であるという概念) について書いたことがありますが、Bing との会話中にトンプソンとルースと同じように感じました。 間違いないです 楽しい チャットボットと話す — さまざまな「個性」を引き出し、彼らの知識の限界をテストし、隠された機能を明らかにします。 チャットボットは、言葉で解決できるパズルを提示するため、当然のことながら、ライターを魅了します。 ボットと話し、彼らの初期の意識を信じさせることは、実写のロールプレイになります。会社とキャラクターが本物である拡張現実ゲームです。 あなたは それの厚さで。
しかし、AI が誇大宣伝されている時代に、そのような幻想を助長するのは危険です。 それは誰の利益にもなりません。これらのシステムを構築する人々にも、そのエンド ユーザーにもメリットはありません。 確かなことは、Bing、ChatGPT、およびその他の言語モデルは感覚的ではなく、信頼できる情報源でもないということです。 それらは物事を構成し、私たちが提示する信念を反映しています。 彼らに感覚のマントを与えることは、半感覚であっても、彼らに不当な権限を与えることを意味します—私たちの感情と、私たちが世界で理解している事実の両方に対して。
鏡をしっかりと見る時が来ました。 私たち自身の知性を機械の知性と間違えないでください。