著名な AI 倫理学者のグループは、今週の物議を醸した AI 開発の 6 か月の「一時停止」を求める書簡への反論を書き、今日の技術の誤用に起因する実際の害が将来の仮想的な脅威に焦点を当てていることを批判しました。 .
スティーブ ウォズニアックやイーロン マスクなどおなじみの名前を含む何千人もの人々が、今週初めにフューチャー オブ ライフ インスティテュートからの公開書簡に署名し、GPT-4 のような AI モデルの開発を保留して「損失を回避する」ことを提案しました。他の脅威の中でも、私たちの文明を支配することです。
Timnit Gebru、Emily M. Bender、Angelina McMillan-Major、Margaret Mitchell はいずれも AI と倫理の分野の主要人物であり、(彼らの仕事に加えて) Google から追い出されたことで知られています。 紙 AIの能力を批判。 彼らは現在、AI関連の害を研究し、明らかにし、防止することを目的とした新しい研究機関であるDAIR研究所で協力しています.
しかし、彼らは署名者のリストに載っていませんでした。 叱責文を掲載しました 技術によって引き起こされた既存の問題に手紙が関与しなかったことを指摘しています。
「これらの仮想的なリスクは、長期主義と呼ばれる危険なイデオロギーの焦点であり、今日の AI システムの展開に起因する実際の害を無視しています」と彼らは書いており、労働者の搾取、データの盗難、既存の権力構造を支える合成メディア、およびさらなる集中を挙げています。より少ない手でそれらの権力構造を。
ターミネーターまたはマトリックス風のロボットの黙示録について心配するという選択は、同じ瞬間にClearview AIのような企業の報告がある場合、ニシンです. 本質的に無実の男を組み立てるために警察によって使用されている. オンラインのゴム印工場からアクセスできるすべてのフロントドアにリングカムがある場合、T-1000 は必要ありません。
DAIRの乗組員は、合成メディアの特定など、書簡の目的の一部に同意しますが、今日の問題に対して、私たちが利用できる救済策を講じて、今すぐ行動を起こす必要があることを強調しています。
私たちが必要としているのは、透明性を強化する規制です。 合成メディアに遭遇したときにそれを常に明確にする必要があるだけでなく、これらのシステムを構築する組織は、トレーニング データとモデル アーキテクチャを文書化して開示する必要もあります。 安全に使用できるツールを作成する責任は、生成システムを構築および展開する企業にあるはずです。つまり、これらのシステムの構築者は、製品によって生成された出力に対して責任を負わなければなりません。
ますます大規模な「AI 実験」に向けた現在の競争は、どれだけ速く実行するかだけを選択できる事前に定められた道ではなく、利益の動機によって駆動される一連の決定です。 企業の行動と選択は、人々の権利と利益を保護する規制によって形成されなければなりません。
今こそ行動を起こすときです。しかし、私たちの懸念の焦点は、架空の「強力なデジタル マインド」であってはなりません。 代わりに、私たちは、急速に権力を中央集権化し、社会的不公平を増大させている、それらを構築すると主張する企業の非常に現実的で非常に現在の搾取的慣行に焦点を当てる必要があります.
ちなみに、この手紙は、昨日シアトルで開催された AfroTech イベントで Uncharted Power の創設者 Jessica Matthews から聞いた感想を反映しています。 それを作っている人々を恐れるべきです。」 (彼女の解決策は、それを構築する人々になることです。)
大手企業が公開書簡に従って研究活動を一時停止することに同意する可能性はほとんどありませんが、同社が受けたエンゲージメントから判断すると、AI のリスク (実際のリスクと仮想のリスク) が、業界の多くの分野で大きな懸念事項となっていることは明らかです。社会。 しかし、もし彼らがそれをしないのなら、おそらく誰かが彼らのためにそれをしなければならないでしょう.