チャットボットの柔軟性には、未解決の問題もいくつかあります。 偏った、予測不可能で、多くの場合捏造された回答が生成される可能性があり、許可なく収集された個人情報に部分的に基づいて構築されているため、プライバシーの懸念が生じます。
Goldkind は、ChatGPT を利用する人は、ChatGPT の利用規約を熟知し、ChatGPT がどのように機能するか (そして、チャットで共有される情報がどのように非公開に保たれないのか) の基本を理解し、捏造する傾向などの限界に留意する必要があるとアドバイスしています。情報。 ヤング氏は、ChatGPTのデータプライバシー保護を有効にすることを検討しているが、自閉症、トランスジェンダー、ひとり親としての彼らの視点がチャットボット全体にとって有益なデータになる可能性もあると考えていると語った。
他の多くの人々と同様に、自閉症の人も ChatGPT との会話で知識と力を得ることができます。 一部の人にとっては、メリットがデメリットを上回ります。
自閉症であり、自閉症者やトランスジェンダーの人々のサポート グループを促進するマックスフィールド スパローさんは、ChatGPT が新しい資料の開発に役立つと感じています。 ソーシャルゲームは主に定型発達の人向けに設計されているため、多くの自閉症の人はグループセッションで従来のアイスブレイクに苦労している、とスパロウ氏は言う。 そこで彼らは、自閉症の人にとってより効果的な例を考え出すようチャットボットに促しました。 何度かやり取りをした後、チャットボットは「もしあなたが天気予報士だったら、どんな天気になりたいですか?」と吐き捨てました。
スパロウ氏によれば、これはグループにとって完璧なオープニングであり、簡潔で自然界に関連した内容であり、神経分岐したグループでもつながることができるとスパロウ氏は言う。 チャットボットは、Sparrow が病気のときの慰めの源にもなり、より生産性を高めるために朝の日課を整える方法など、その他のアドバイスも受けられます。
チャットボット療法は数十年前に遡る概念です。 最初のチャットボット ELIZA はセラピー ボットでした。 これは 1960 年代に MIT 人工知能研究所から生まれ、カウンセラーがクライアントの話した内容を、多くの場合質問の形で再説明するロジェリアン療法をモデルにしました。 このプログラムは今日知られているような AI を使用していませんでしたが、反復とパターン マッチングを通じて、そのスクリプト化された応答はユーザーに、自分のことを理解できる誰かと話しているような印象を与えました。 ELIZA は、コンピューターが人間に取って代わることはできないことを証明する目的で作成されたにもかかわらず、一部の「患者」を魅了し、プログラムと激しく広範囲にわたる会話を交わしました。
最近では、Apple の Siri に似た、AI 主導のスクリプト化された応答を備えたチャットボットが広く利用できるようになりました。 最も人気のあるのは、実際のセラピストの役割を果たすように設計されたチャットボットです。 Woebot は認知行動療法の実践に基づいており、これまで以上に多くの人々がメンタルヘルス サービスを求める中、パンデミックを通じて需要が急増しました。
しかし、これらのアプリは範囲が狭く、スクリプト化された応答を提供するため、複雑な社会問題に対処しようとしている人にとっては、ChatGPT のより豊富な会話がより効果的に感じられる可能性があります。
オープンソースAIモデルを開発する新興企業Hugging Faceの主任倫理科学者マーガレット・ミッチェル氏は、より複雑な問題や深刻な精神的苦痛に直面している人はチャットボットの使用を制限すべきだと示唆している。 「議論の方向性が問題になったり、ネガティブな思考を刺激したりする可能性があります」と彼女は言う。 「これらのシステムが何を伝えるかを私たちが完全に制御できないという事実は、大きな問題です。」