ハーバード大学のコンピューター サイエンスの教授である Fernanda Viégas 氏は、この研究には参加していませんが、AI システムの説明に新たな見方が見られることに興奮していると述べています。システムがその決定に到達するために使用したロジックに疑問を投げかけます。
「AI システムの採用における主な課題の 1 つは、その不透明性である傾向があることを考えると、AI の決定を説明することは重要です」と Viégas 氏は言います。 「これまで、AI システムがどのように予測や決定を下すかをユーザーフレンドリーな言葉で説明することは十分に困難でした。」
シカゴ大学のコンピューター サイエンスの助教授である Chenhao Tan は、彼らの方法が現実の世界でどのように機能するかを確認したいと述べています。
テルアビブ大学コラー経営大学院の助教授である Lior Zalmanson は、この研究は、チャットボットの経験に摩擦を加えて、AI の助けを借りて決定を下す前に人々が一時停止することがいかに重要であるかを示していると述べています。
「すべてが魔法のように見えるとき、自分の感覚を信じるのをやめて、すべてをアルゴリズムに任せ始めるのは簡単です」と彼は言います。
の 別の論文が提示されました CHI で、Zalmanson とコーネル大学、バイロイト大学、および Microsoft Research の研究者チームは、人々が AI チャットボットの発言に同意しない場合でも、その出力を使用する傾向があることを発見しました。自分たちで書いた。
Viégas 氏によると、課題はスイート スポットを見つけて、AI システムの利便性を維持しながらユーザーの識別力を向上させることです。
「残念ながら、ペースの速い社会では、すぐに答えを期待するのではなく、批判的思考に携わりたいと思う人がどのくらいの頻度で現れるかは不明です」と彼女は言います。