彼が座っていると 私の向かい側では、私の患者が悲痛な表情を浮かべていました。
「デートがありました」と彼は発表した。 「うまくいきませんでした。」
この患者にとってそれは珍しいことではありませんでした。 彼は何年もの間、ロマンチックな希望が打ち砕かれた話を共有してきた。 しかし、何が問題だったのかを私が尋ねる前に、彼はこう続けました。「それで、チャットボットに何をすべきか尋ねました。」
うーん。 何? 人工知能による人間の会話のシミュレーション、つまりチャットボットがよくニュースになっていますが、これまで実際にチャットボットをアドバイスに使用したという患者の話を聞いたことはありませんでした。
「それは何と言ったのですか?」 私は興味を持って尋ねました。
「私が彼女の価値観を大切にしていると伝えるためです。」
“おお。 うまくいきましたか?
「推測は2つだ」彼はため息をつき、手を上げた。 この患者さんは初めての患者さんでしたが、私の治療現場では、新しい患者さんから、私に相談する前にチャットボットを相談したという話を聞くことが今では日常茶飯事になっています。 ほとんどの場合、それは愛や人間関係に関するアドバイスのためですが、子供たちとつながりを持ったり、境界線を設定したり、あるいはうまくいかなくなった友情を正すための場合もあります。 結果は明らかにまちまちだった。
ある新規患者はチャットボットに、愛する人の命日にどう対処すべきかを尋ねた。 一日の中で、その人の何が特別だったかを思い出す時間を確保しましょうとボットにアドバイスしました。 私自身、これ以上うまく言えなかったでしょう。
「そこに書かれていることを聞いて、涙が出てきました」と患者は語った。 「自分が悲しみを避けてきたことに気づきました。 それで、この約束をしました。」
別の患者は、友人たちが痩せ始めたときに AI に依存し始めました。 「チャットボットを使い切ることはできません」と彼女は私に言いました。
私はセラピストとして、AI がセラピー ビジネスに参入する可能性に懸念を抱いていると同時に、興味をそそられています。 AI が未来であることに疑いの余地はありません。 すでに、カバーレターやスピーチの作成から旅行や結婚式の計画に至るまで、あらゆる場面で役立つことがわかっています。 それを私たちの人間関係にも役立ててみてはいかがでしょうか? と呼ばれる新しい事業 レプリカ、「気にかけてくれる AI コンパニオン」はさらに一歩進んで、人々が恋に落ちるロマンチックなアバターも作成しました。 他のサイト、例えば キャラクター.ai、お気に入りの架空のキャラクターとチャットしたり、一緒に遊んだり、自分で話すボットを構築したりできます。
しかし、私たちは誤った情報が氾濫する時代に生きています。 私たちはすでに、アルゴリズムがどのようにして無意識の、または悪意のある人間の間で嘘や陰謀論を広めるかという不穏な例を見てきました。 それらを私たちの感情的な生活に取り入れると何が起こるでしょうか?
「たとえ AI が人間のように物事を明確に表現するとしても、その目的は何なのかを自問する必要があります」と、ニューヨーク市のアイカーン医科大学、マウント サイナイ病院精神科の助教授、ナーマ ホフマンは言います。 「人間関係や治療における目標は生活の質を向上させることですが、AI の目標は最も引用されているものを見つけることです。 必ずしも役立つはずではありません。」
セラピストとして、私は自分の仕事が外部からのサポートから恩恵を受けることができることを知っています。 私は20年間トラウマグループを運営してきましたが、心理教育の枠組み、特に次のような証拠に基づいた枠組みがどのように構築されるかを見てきました。 安全を求めて、より深い感情的な作業を促進します。 結局のところ、元のチャットボットは、 エリザは、際限なく未解決の質問を投げかけるため、「バーチャル セラピスト」として設計されました。 まだ使っています。 チャットボットは、人々がインスピレーションを見つけたり、防御を打ち破って治療に参加できるようにするのに役立つ可能性があります。 しかし、人間が機械に過度に依存するようになるポイントはどこにあるのでしょうか?