2023年、感動 AI (人間の感情を感知して対話できるテクノロジ) は、機械学習の主要なアプリケーションの 1 つになるでしょう。 たとえば、Google の元研究者である Alan Cowen によって設立された Hume AI は、言葉、顔、声の表現から感情を測定するツールを開発しています。 スウェーデンの企業 Smart Eyes は最近、音声サンプルから怒りなどの感情を 1.2 秒未満で分類するアルゴリズムである SoundNet ニューラル ネットワークを開発した MIT メディア ラボのスピンオフである Affectiva を買収しました。 ビデオ プラットフォームの Zoom でさえ、Zoom IQ を導入しています。これは、仮想会議中の感情とエンゲージメントのリアルタイム分析をユーザーにすぐに提供する機能です。
2023 年には、テクノロジー企業が高度なチャットボットをリリースする予定です。このチャットボットは、人間の感情を厳密に模倣して、銀行、教育、医療の分野でユーザーとより共感的な関係を築くことができます。 Microsoft のチャットボット Xiaoice は中国ですでに成功しており、平均的なユーザーは 1 か月に 60 回以上「彼女」と会話したと報告されています。 また、チューリング テストにも合格し、ユーザーは 10 分間ボットとして認識できませんでした。 Juniper Research Consultancy の分析によると、ヘルスケアにおけるチャットボットのやり取りは 2018 年からほぼ 167% 増加し、2023 年には年間 28 億回に達する見込みです。これにより、医療スタッフの時間が解放され、世界中のヘルスケア システムで約 37 億ドルを節約できる可能性があります。 .
2023 年には、感情的な AI が学校でも一般的になるでしょう。 香港では、一部の中等学校がすでに、Find Solutions AI によって開発された人工知能プログラムを使用しています。このプログラムは、生徒の顔の筋肉の微細な動きを測定し、さまざまな否定的および肯定的な感情を識別します。 教師はこのシステムを使用して、生徒の感情の変化、モチベーション、集中力を追跡し、生徒が興味を失った場合に早期に介入できるようにしています。
問題は、感情的 AI の大部分が欠陥のある科学に基づいていることです。 Emotional AI アルゴリズムは、大規模で多様なデータセットでトレーニングされた場合でも、その人の社会的および文化的背景や状況を考慮せずに、表情や声調を感情に還元します。 たとえば、アルゴリズムは人が泣いていることを認識して報告できますが、涙の背後にある理由と意味を正確に推測できるとは限りません。 同様に、しかめっ面は必ずしも怒っている人を意味するわけではありませんが、それはアルゴリズムが到達する可能性が高い結論です. なんで? 私たちは皆、社会的および文化的規範に従って感情表現を適応させているため、表現が常に内面の状態を真に反映しているとは限りません。 多くの場合、人々は本当の感情を隠すために「感情ワーク」を行います。感情を表現する方法は、自発的な表現ではなく、学習した反応である可能性があります。 たとえば、女性は男性よりも自分の感情を修正することが多く、特に怒りなどの否定的な価値観を持つ感情は、修正することが期待されているためです。
そのため、感情状態を推測する AI テクノロジーは、社会のジェンダーや人種の不平等を悪化させる可能性があります。 たとえば、2019 年のユネスコの報告書は、AI 技術のジェンダー化の有害な影響を示しており、「女性的な」音声アシスタント システムは、感情的な受動性と服従のステレオタイプに従って設計されています。
顔認識 AI は、人種的不平等を永続させる可能性もあります。 人気のある 2 つの感情認識ソフトウェア プログラムである Face と Microsoft の Face API を使用して NBA の 400 試合を分析した結果、黒人選手は、たとえ笑顔であっても、平均してより多くの否定的な感情を割り当てることが示されました。 これらの結果は、黒人男性は攻撃的で脅迫的であるという固定観念があるため、職場でよりポジティブな感情を投影する必要があることを示す他の研究を再確認します.
エモーショナル AI テクノロジーは 2023 年にさらに普及するでしょうが、問題が解決されないまま放置されると、体系的な人種や性別の偏見が強化され、世界の不平等が複製および強化され、すでに疎外されている人々がさらに不利になるでしょう。