「たった 1 人の人を失うだけで、組織全体に大きな影響が及びます」と Mitchell 氏は言います。 2020 年後半、Google は倫理的 AI の共同リーダーである Timnit Gebru を解任し、数か月後に Mitchell を解雇しました。 責任ある AI チームの他の何人かのメンバーは、わずか数か月で退職しました。
Gupta 氏は、この種の頭脳流出は、AI の倫理の進歩に「深刻なリスク」をもたらし、企業がプログラムを順守することを難しくしていると述べています。
昨年、グーグル 発表した AI倫理に専念する研究スタッフを2倍に増やしていたが、それ以降の進歩についてはコメントしていない. 同社は MIT Technology Review に対し、メンタルヘルスの回復力に関するトレーニングを提供し、ピアツーピアのメンタルヘルス サポート イニシアチブを実施し、マインドフルネスに役立つデジタル ツールへのアクセスを従業員に提供していると語った。 また、彼らをメンタルヘルスのプロバイダーと仮想的に接続することもできます。 ミッチェルの会社での時間についての質問には答えなかった.
Meta は、従業員とその家族が毎年 25 回の無料セラピー セッションにアクセスできるプログラムなどの福利厚生に投資していると述べた。 Twitter は、従業員のカウンセリングとコーチングのセッション、燃え尽き症候群防止トレーニングを提供していると述べた。 同社には、メンタルヘルスに焦点を当てたピアサポートプログラムもあります。 AI倫理に特化したサポートを提供したと回答した企業は1社もありませんでした。
AI のコンプライアンスとリスク管理に対する需要が高まるにつれて、技術幹部は責任ある AI プログラムに十分な投資を行う必要があると Gupta 氏は言います。
変化は一番上から始まります。 「経営陣は、これに割り当てているお金、時間、リソースについて話す必要があります」と彼は言います。 そうでなければ、倫理的 AI に取り組んでいる人々は「失敗する準備ができている」ことになります。
責任ある AI チームを成功させるには、問題に取り組むための十分なツール、リソース、および人員が必要ですが、組織全体のエージェンシー、つながり、求められている変更を実行する力も必要です、と Gupta は付け加えます。
テクノロジー企業の多くのメンタルヘルス リソースは、時間管理とワークライフ バランスを中心にしていますが、感情的および心理的に不快なトピックに取り組んでいる人々には、より多くのサポートが必要である、と Chowdhury 氏は言います。 責任ある技術に取り組んでいる人々に特化したメンタルヘルスのリソースも役立つだろう、と彼女は付け加えた。
「この種のことに取り組むことの効果は認識されておらず、それから離れることに対するサポートや奨励はまったくありません」とミッチェルは言います.
「大手テック企業がこの現実に対処しなければならない唯一のメカニズムは、その現実を無視することです。」