良いことがあります 今日の AI 構造があなたに言うことを信用しない理由はありません。それは知性や人類の基本的な性質、言語表現のウィトゲンシュタインの概念、またはデータセットの偽情報とは何の関係もありません。 重要なのは、これらのシステムが何かを区別しないということだけです。 は 正しいと何か 見える 正しい。 AI がこれらのことを多かれ少なかれ交換可能と見なしていることを理解すると、すべてがより理にかなったものになります。
さて、私は、あらゆる形式のメディアや会話で絶え間なく起こっている、このことについての魅力的で幅広い議論を短絡するつもりはありません. 哲学者や言語学者からエンジニアやハッカー、バーテンダーや消防士まで、誰もが「知性」と「言語」とは何か、ChatGPT のようなものがそれらを持っているかどうかについて質問し、議論しています。
これは素晴らしいです! そして、この分野で最も賢い人々の何人かは太陽の下での瞬間を楽しんでいますが、比較可能なベイビーの口からは新鮮な新しい視点が生まれます.
しかし同時に、ビールやコーヒーを飲みながら、誰かが「この GPT のことはどうなのか、AI がどれほど賢くなっているのかちょっと怖いですね」と尋ねられたとき、それを整理するのは大変なことです。 どこから始めますか — アリストテレス、機械のトルコ人、パーセプトロン、または「必要なのは注意だけ」ですか?
これらのチャットの 1 つの間に、私が見つけた単純なアプローチを思いつきました。これは、これらのシステムが本当にクールであり、まったく信頼できない理由を人々が理解するのに役立つことを発見しました。彼ら。 ベクトルや行列について聞きたくないにもかかわらず、他の好奇心旺盛で懐疑的な人々とこれについて話すときに、この視点が役立つと思う場合に備えて、共有したいと思います。
理解すべきことは 3 つだけで、自然な結論につながります。
- これらのモデルは、テキストの膨大なデータセットで単語と文の間の関係などを観察することによって作成され、これらすべての何百万もの単語と概念がどのように関連付けられ、相関しているかを示す独自の内部統計マップを構築します。 これは名詞だ、これは動詞だ、これはレシピだ、これは修辞的な装置だ、と誰も言っていない。 しかし、これらは使用パターンに自然に現れるものです。
- Google や Apple などのよく知られているソフトウェア企業が過去 10 年間 AI を呼び出してきたのとは対照的に、これらのモデルは質問に答える方法を具体的に教えられていません。 それらの 基本的に、API につながる空白を含む Mad Lib です。すべての質問は、説明されるか、一般的な応答を生成します。 大規模な言語モデルでは、質問は他の単語と同じように一連の単語にすぎません。
- これらのモデルは、応答に「自信」という基本的な表現力を持っています。 猫認識 AI の簡単な例では、猫ではないことを完全に確認することを意味する 0 から、猫であることを完全に確認することを意味する 100 まで変化します。 信頼度が 85 または 90 の場合は、「はい、猫です」と言うように指示できます。好みの応答メトリックが生成されます。
したがって、モデルがどのように機能するかについて私たちが知っていることを考えると、ここに重要な質問があります。 だいたい? 猫や質問が何であるかはわかりません。トレーニング セット内のデータ ノード間で見つかった統計的関係のみです。 わずかな調整で、猫検出器は、画像が牛、空、または静物画を示していると同等に確信できるようになります。 モデルは、トレーニングされたデータの内容を実際に評価する方法がないため、自身の「知識」に自信を持つことができません。
AI は、その答えがどれだけ確実であるかを表現しています ユーザーには正しく見える.
これは猫検出器にも当てはまり、GPT-4 にも当てはまります。違いは、出力の長さと複雑さの問題です。 AI は正しい答えと間違った答えを区別できません。 どのくらいの可能性 一連の単語は正しいものとして受け入れられるべきです。 だからこそ、それはあらゆる主題に関する権威ではなく、世界で最も包括的に情報を得たデタラメと見なされなければなりません. それはあなたをからかっていることさえ知りません — 次のような応答を生成するように訓練されています。 統計的に正解に似ている、そしてそれは言うでしょう なんでも その類似性を改善します。
AI は質問を理解していないため、どの質問に対する答えも知りません。 それは質問が何であるかを知りません。 それは何も「知りません」! 統計分析から外挿すると、その一連の単語は前の一連の単語の後に続く可能性が最も高いため、答えは質問に従います。 それらの言葉が実際の場所、人、場所などを指しているかどうかは重要ではありません。 好き 本物。
これは、AI がモネではないモネのような絵画を作成できるのと同じ理由です。重要なのは、AI が、人々が芸術作品を彼の作品であると認識させるすべての特徴を備えているということです。 今日の AI は、「睡蓮」を近似する方法で、事実に基づく応答を近似します。
ここで、これは独創的でも画期的な概念でもないことを急いで付け加えておきます。基本的には、確率的オウムまたは海底タコを説明する別の方法です。 これらの問題は、非常に賢い人々によって非常に早い段階で特定され、技術問題に関する解説を広く読む大きな理由となっています。
しかし、今日のチャットボット システムのコンテキストでは、人々がこのアプローチを直感的に理解していることがわかりました。モデルは事実や概念を理解していませんが、単語間の関係とその応答は、回答の「芸術家の印象」です。 あなたがそれに取り掛かるとき、彼らの目標は、空白を埋めることです 納得のいく、 いいえ 正しく. これが、その対応が根本的に信頼できない理由です。
もちろん、時には、多くの場合でも、その答えは は 正しい! これは偶然ではありません。多くの質問では、最も正しいように見える答えが正しい答えです。 それが、これらのモデルが非常に強力であり、危険である理由です。 何百万もの単語や文書を体系的に研究することで、非常に多くのことを抽出できます。 そして、「睡蓮」を正確に再現するのとは異なり、言語には柔軟性があり、事実に基づく応答の概算も事実に基づいたものにすることができますが、完全または部分的にでっちあげの応答を同等またはそれ以上に見せることもできます。 AI が気にする唯一のことは、答えが正しくスキャンされることです。
これにより、これが本当に知識であるかどうか、モデルが「理解」しているとすれば何か、モデルが何らかの形の知性を達成したかどうか、知性とは何かなどについての議論への扉が開かれます。 ウィトゲンシュタインを連れてこい!
さらに、真実があまり問題にならない状況でこれらのツールを使用する可能性も残されています。 ライターズ ブロックを回避するために冒頭のパラグラフの 5 つのバリエーションを生成したい場合、AI は不可欠かもしれません。 絶滅の危機に瀕している 2 匹の動物についての物語を作りたい場合、またはポケモンについてのソネットを書きたい場合は、ぜひお試しください。 応答が現実を反映していることが重要でない限り、大規模な言語モデルは喜んで有能なパートナーです。
モデルが大きすぎて不透明なため、いつ、どこで AI が誤りを犯すかを予測することは非常に困難です。 ロボットがその場で思いついた最初の原則から、100 年以上にわたって整理され、更新された、大陸のサイズのカード カタログを想像してみてください。 中に入ってシステムを理解できると思いますか? 難しい問題には正しい答えを、簡単な問題には間違った答えを与えます。 なぜ? 現時点では、AI もその作成者も答えられない 1 つの質問です。
これは将来、おそらく近い将来に変わる可能性があります。 すべてが急速かつ予測不可能に動いているため、確実なことは何もありません。 しかし、現時点では、これは心に留めておくべき有用なメンタル モデルです。AI は、ユーザーにそれを信じてもらいたいと考えており、可能性を高めるために何でも言います。