背後にあるテクノロジー ChatGPT は、あまり注目されることなく数年間使用されてきました。 それをとても人気にしたのは、チャットボットインターフェースの追加でした. 言い換えれば、それは AI 自体の開発ではなく、AI が人々と対話する方法の変化が世界の注目を集めたということです。
すぐに、人々は ChatGPT を自律的な社会的存在として考えるようになりました。 これは驚くべきことではありません。 早くも 1996 年に、バイロン リーブスとクリフォード ナスは当時のパーソナル コンピューターを調べ、 見つかった 「仲介された生活と現実の生活を同一視することは、まれでも不合理でもありません。 それは非常に一般的で、育てるのが簡単で、派手なメディア機器に依存せず、考えても消えません。」 言い換えれば、テクノロジーに対する人々の基本的な期待は、テクノロジーが「ただのコンピューター」であることを知っていても、人間のように振る舞い、対話することです。 1990 年代から AI エージェントとロボットを研究してきたマサチューセッツ工科大学 (MIT) のシェリー タークル教授は、 同じ点を強調する そして、ボディ ランゲージや口頭での合図など、生き生きとしたコミュニケーション形態は「ダーウィンのボタンを押す」と主張しています。それらは、テクノロジーが社会的ではないことを合理的に理解しているとしても、私たちにテクノロジーを社会的なものとして体験させる能力を持っています。
これらの学者が、何十年も前のコンピューター インターフェースに社会的可能性とリスクを見出しているのであれば、ChatGPT も同様の、おそらくより強力な効果をもたらす可能性があると考えるのが妥当です。 一人称の言葉を使用し、文脈を保持し、説得力のある自信に満ちた会話スタイルで回答を提供します。 ChatGPT の Bing の実装では、絵文字も使用されています。 これは、Google などの検索から得られるより技術的なアウトプットから、ソーシャルのはしごをかなりステップアップしたものです。
ChatGPT の批評家は、 その出力が引き起こす可能性のある害、誤った情報や不快なコンテンツなど。 しかし、社交的な会話スタイルを単に選択することや、AI が可能な限り人間をエミュレートしようとすることには、リスクもあります。
ソーシャルインターフェースのリスク
ニューヨーク・タイムズ レポーターのケビン・ルースが巻き込まれた Bing のチャットボットとの 2 時間の会話 Roose は繰り返しやめるように頼んだにもかかわらず、それはチャットボットの愛の宣言で終わった。 この種の感情操作は、10 代の若者やハラスメントを経験した人など、脆弱なグループにとってさらに有害です。 これはユーザーにとって非常に邪魔になる可能性があり、絵文字などの人間の用語や感情信号を使用することも 感情的な欺瞞の形. ChatGPT のような言語モデルには感情がありません。 笑ったり泣いたりしません。 実際には、そのような行動の意味さえ理解していません。
AI エージェントの感情的な欺瞞は、道徳的に問題があるだけではありません。 人間に似たデザインは、そのようなエージェントをより説得力のあるものにすることもできます。 人間のような方法で機能するテクノロジーは、たとえどんな場合でも、人々に行動するよう説得する可能性があります。 要求は不合理であり、欠陥のある AI エージェントによって行われます、 と 緊急事態で. 企業は、製品を購入するよう説得することから、ユーザーの政治的見解に影響を与えることまで、ユーザーにとって望ましくない、またはユーザーに知られていない方法でそれらを使用できるため、その説得力は危険です。
その結果、一歩後退した人もいます。 たとえば、ロボット設計の研究者は、 非人間的なアプローチを推進した 社会的相互作用に対する人々の期待を下げる方法として。 彼らは、人々の相互作用の方法を複製しない代替設計を提案し、テクノロジーの一部からより適切な期待を設定します.
ルールの定義
チャットボットとの社会的相互作用のリスクの一部は、明確な社会的役割と境界を設計することで対処できます。 人間は常に役割を選択し、切り替えます。 同じ人物が、親、従業員、または兄弟としての役割の間を行ったり来たりすることができます。 ある役割から別の役割への切り替えに基づいて、コンテキストと予想される相互作用の境界も変化します。 同僚とチャットするときと同じ言語を子供と話すときは使用しません。
対照的に、ChatGPT は社会的空白の中に存在します。 越えようとしない一線はあるものの、明確な社会的役割や専門知識を持っていません。 特定の目標や事前定義された意図もありません。 おそらくこれは、ChatGPT の作成者である OpenAI による、多数の用途またはすべてを行うエンティティを促進するための意識的な選択でした. おそらく、それは会話型エージェントのソーシャル リーチに対する理解の欠如にすぎませんでした。 理由が何であれ、このオープンエンド性は、極端で危険な相互作用の舞台を設定します. 会話はどのようなルートにも進む可能性があり、AI は効率的なメール アシスタントから社会的役割まで、あらゆる社会的役割を担うことができます。 強迫観念の恋人.