ChatGPT とその 兄弟は驚くほど賢く、がっかりするほど愚かです。 確かに、彼らは美しい詩を生成したり、科学的なパズルを解いたり、スパゲッティ コードをデバッグしたりできます。 しかし、彼らはしばしば捏造し、忘れ、 変人のように振る舞う.
屈折AIは、以前に Google、OpenAI、および Nvidia で主要な人工知能プロジェクトに取り組んだ研究者によって設立された会社で、Pi と呼ばれるボットを構築しました。
Inflection は、今日のチャットボットの問題のいくつかに対処するように Pi を設計しました。 ChatGPT などのプログラムは、人工ニューラル ネットワークを使用して、ユーザーの質問への回答など、テキストのチャンクに続く単語を予測しようとします。 これらのモデルは、人間が書いた数十億行のテキストを高性能コンピューターに支えられて十分にトレーニングすることで、実際の会話のように感じられる首尾一貫した適切な応答を思いつくことができます。 しかし、彼らはまた、ものを作り、レールから外れます。
Inflection の CEO である Mustafa Suleyman 氏は、同社が Pi のトレーニング データを慎重にキュレートして、有毒な言葉が応答に忍び寄る可能性を減らしていると述べています。 「私たちはモデルに入れるものをかなり厳選しています」と彼は言います。 「私たちは、オープン Web で入手できる多くの情報を取り入れていますが、完全にすべてというわけではありません。」
現在は Google の一部となっている AI 企業 Deepmind の共同設立者である Suleyman 氏は、Pi の返信の長さを制限することで、事実誤認の可能性を減らすことはできますが、完全になくすことはできないとも述べています。
Pi とチャットした私自身の時間に基づくと、結果は魅力的ですが、ChatGPT や Bard よりも限定的で有用性が低くなります。 これらのチャットボットは、人間が回答の質を評価する追加のトレーニングを通じて、質問への回答が向上しました。 そのフィードバックは、ボットをより満足のいく応答に導くために使用されます。
Suleyman 氏によると、Pi も同様の方法でトレーニングされましたが、友好的で協力的であることを強調していましたが、プログラムの機能についてユーザーを混乱させる可能性のある人間のような性格はありませんでした。 人間のペルソナを引き受けるチャットボットには、すでに問題があることが証明されています。 昨年、Google のエンジニアは、同社の AI モデルが ラムダは、大規模な AI 言語モデルがいかに巧妙で魅力的なものになるかを実証した最初のプログラムの 1 つであり、感覚を持っている可能性があります。
Pi は、ユーザーとのすべての会話の記録を保持することもできます。これにより、ChatGPT に欠けている一種の長期記憶が提供され、チャットに一貫性を追加することを目的としています。
「良い会話とは、人の言うことに敏感に反応し、明確な質問をし、好奇心を持ち、忍耐強くあることです」とスレイマンは言います。 「強力な方向性のアドバイスを与えるのではなく、考えを解き明かすのに役立つように、考えるのを助けるためにそこにあります。」
パイは、人間のふりをしていなくても、おしゃべりで思いやりのあるペルソナを採用しています。 調子はどうですかとよく聞かれ、励ましの言葉を頻繁にかけてくれました。 Pi の応答が短いということは、音声アシスタントとしてもうまく機能することを意味します。 あなたはできる 自分で話してみてください Inflection の Web サイトで。
ChatGPT や同様のツールをめぐる信じられないほどの誇大宣伝は、多くの起業家がこの分野で一攫千金を狙うことを望んでいることを意味します。
Suleyman は、LaMDA チャットボットに取り組んでいる Google チームのマネージャーでした。 Google はこの技術のリリースを躊躇し、大きな商業的可能性があると信じて取り組んでいた一部の人々の不満を募らせました。