DeepMind が考えるチャットボットの安全性


一部の技術者は、いつの日か人々が会話できる超知的な AI システムを開発することを望んでいます。 質問をすると、人間の専門家が作成したような答えが返ってきます。 医療アドバイスを求めたり、休暇の計画を立てたりするために使用できます。 まあ、少なくともそれがアイデアです。

現実には、まだその道のりは遠いです。 今日の最も洗練されたシステムでさえ、かなり馬鹿げています。 以前、Meta の AI チャットボット BlenderBot に、オランダの著名な政治家が テロリスト. の 実験 AI を搭載したチャットボットが医療アドバイスを提供するために使用された場合、彼らはふりをして患者に自殺するように言いました。 たくさんの楽観主義であなたを満たしませんか?

そのため、AI ラボは、会話型 AI を現実の世界に解き放つ前に、より安全で便利なものにするために懸命に取り組んでいます。 私はちょうど 物語を公開しました Alphabet が所有する AI ラボ DeepMind の最新の取り組みについて: Sparrow と呼ばれる新しいチャットボット。

AIを活用した優れたチャットボットを作成するためのDeepMindの新しいトリックは、人間がどのように振る舞うかを教えてもらうことでした—そして、Google検索を使用して主張を裏付けるように強制します. 次に、人間の参加者は、AI システムの回答がどれほど妥当であるかを評価するよう求められました。 アイデアは、人間と機械の間の対話を使用して AI をトレーニングし続けることです。

この話をレポートするにあたって、非営利の AI 研究所である Cohere for AI を率いる Sara Hooker に話を聞きました。

彼女は、会話型 AI システムを安全に展開する上での最大のハードルの 1 つは脆弱性だと言いました。

「また、会話が不適切かどうかについて 2 人が意見を異にする可能性があるため、解決が難しい問題でもあります。 また、現時点で何かが適切であることに同意したとしても、時間の経過とともに変化するか、主観的な共有コンテキストに依存する可能性があります」とフッカーは言います.

それにもかかわらず、DeepMind の調査結果は、AI の安全性が単なる技術的な修正ではないことを強調しています。 ループには人間が必要です。

コメントする