一年前、 コンピューターと有意義な会話をするという考えは SF の世界の話でした。 しかし、OpenAI の ChatGPT が昨年 11 月にリリースされて以来、人生は展開の速いテクノ スリラーのように感じられるようになりました。 チャットボットやその他の生成型 AI ツールは、人々の生活や働き方を大きく変え始めています。 しかし、このプロットが高揚的なものになるか、ディストピアになるかは、誰が執筆に協力するかによって決まります。
ありがたいことに、人工知能が進化しているのと同じように、それを構築し研究している人々も進化しています。 これは、ChatGPT の基礎を築いた人々よりも多様なリーダー、研究者、起業家、活動家の集まりです。 AI コミュニティは依然として圧倒的に男性が多いものの、近年、一部の研究者や企業は、女性やその他の過小評価されているグループをより歓迎するコミュニティにしようと推進しています。 そして、テクノロジーの倫理的および社会的影響を考慮する運動(主に女性が主導する)のおかげで、この分野には現在、アルゴリズムの作成や金儲け以上のことに関心を持つ多くの人々が参加しています。 この加速するストーリーラインを形作っている人々の一部を紹介します。 ――ウィル・ナイト
アートについて
「生成 AI を使用して、この新しいテクノロジーと私たちの関係を探求するときに感じる可能性と不安を捉えたかったのです」と、4 人の写真家と協力して AI が作成した背景でポートレートを強化したアーティストのサム キャノンは言います。 「それは会話のように感じました。私が画像やアイデアを AI に送り、AI がそれに対して自分のアイデアを提供してくれました。」
ラマン・チョードリー氏が率いる イーロン・マスクが同社を買収し、チームを解雇するまで、Twitterは倫理的なAI研究を行っていた。 彼女は、クラウドソーシングを利用して AI システムの脆弱性を明らかにする非営利団体 Humane Intelligence の共同創設者であり、ハッカーがアルゴリズムで不正な動作を誘発するよう挑戦するコンテストを企画しています。 ホワイトハウスの支援を受けて今夏に予定されている最初のイベントでは、GoogleやOpenAIなどの企業の生成AIシステムがテストされる。 チョードリー氏は、AI システムの広範な影響のため、大規模な公開テストが必要であると述べています。「もしこの影響が社会に広範囲に影響を与えるのであれば、社会の人々が大きく指摘する最高の専門家ではないでしょうか?」 —カリ・ジョンソン
サラ・バードの仕事 Microsoft の目的は、同社がオフィス アプリやその他の製品に追加している生成 AI が軌道から外れないようにすることです。 彼女は、Bing チャットボットの背後にあるもののようなテキスト ジェネレーターがより高機能で便利になるのを見てきたと同時に、それらが偏ったコンテンツや有害なコードを吐き出す能力も向上しているのを見てきました。 彼女のチームは、テクノロジーの暗い側面を封じ込めるために取り組んでいます。 AI は多くの生活をより良い方向に変える可能性があるが、「人々がテクノロジーが型にはまった成果を生み出すことを心配しているのであれば、それは不可能です」とバード氏は言います。 —KJ
チェ・イェジンさん ワシントン大学コンピューターサイエンス&エンジニアリング学部の教授である彼は、善悪の感覚を養えるように設計された Delphi と呼ばれるオープンソース モデルを開発しています。 彼女は、人間がデルフィの道徳的宣言をどのように認識するかに興味を持っています。 Choi 氏は、OpenAI や Google のシステムと同等の、膨大なリソースを必要としないシステムを望んでいます。 「現在、体重計に焦点を当てているのは、さまざまな理由から非常に不健全です」と彼女は言います。 「これは完全な権力の集中であり、あまりにも高価であり、唯一の方法である可能性は低いです。」 —WK
マーガレット・ミッチェル設立 2017年にGoogleの倫理的AI研究チームに所属。彼女は共著の論文をめぐって幹部らと論争し、4年後に解雇された。 ChatGPTの背後にある技術である大規模な言語モデルは固定観念を強化し、他の悪影響を引き起こす可能性があると警告した。 ミッチェル氏は現在、プログラマー向けのオープンソース AI ソフトウェアを開発する新興企業、ハギング フェイスの倫理責任者を務めています。 彼女は、会社のリリースが不快な驚きを引き起こさないように努めており、アルゴリズムよりも人間を優先するよう現場に奨励しています。 生成モデルは役立つこともありますが、「私たちは歴史の事実との接触を失う危険がある」という人々の真実の感覚を損なう可能性もあると彼女は言います。 —KJ
イニオルワ・デボラのとき ラージ氏は AI の分野からスタートし、顔分析アルゴリズムの偏りを発見したプロジェクトに取り組みました。肌の色が濃い女性ではアルゴリズムの精度が最も低かったのです。 この調査結果により、アマゾン、IBM、マイクロソフトは顔認識技術の販売を中止した。 現在、ラジ氏は Mozilla Foundation と協力して、大規模な言語モデルを含む AI システムにバイアスや不正確さなどの欠陥がないか精査するのに役立つオープンソース ツールの開発に取り組んでいます。 ラージ氏は、このツールは、AIによって被害を受けたコミュニティが強力なテクノロジー企業の主張に異議を唱えるのに役立つと述べている。 「人々は危害が起こっているという事実を積極的に否定しています。そのため、この分野のあらゆる進歩には証拠の収集が不可欠です。」と彼女は言います。 —KJ
以前はダニエラ・アモデイ OpenAI で AI ポリシーに取り組み、ChatGPT の基礎作りに貢献しました。 しかし、2021 年に彼女と他の数名は会社を辞め、AI の安全性に対する独自のアプローチを示す公益法人である Anthropic を設立しました。 このスタートアップのチャットボットであるクロードには、国連の世界人権宣言などの情報源から得られた原則に基づいて、その行動を導く「憲法」があります。 Anthropic の社長兼共同創設者である Amodei 氏は、そのようなアイデアは今日の不正行為を減らし、おそらく将来のより強力な AI システムを制限するのに役立つだろうと述べ、「このテクノロジーの潜在的な影響について長期的に考えることは非常に重要になる可能性があります。」と述べています。 —WK
リラ・イブラヒムは Google の生成 AI プロジェクトの中心となる研究部門である Google DeepMind の最高執行責任者。 彼女は、世界で最も強力な AI 研究所の 1 つを運営することは、仕事というより道徳的な使命であると考えています。 イブラヒム氏は、社会に利益をもたらす形で AI が進化するのを支援したいと考え、Intel で約 20 年間勤務した後、5 年前に DeepMind に入社しました。 彼女の役割の 1 つは、DeepMind プロジェクトの利点を広げ、悪い結果を回避する方法を議論する社内検討評議会の議長を務めることです。 「私の経験と専門知識を活かして、より責任ある方法でこのテクノロジーを世に送り出すことができれば、ここにいる価値があると思いました」と彼女は言います。 —モーガン・ミーカー
この記事は2023年7/8月号に掲載されています。 今すぐ購読する。
この記事についてのご意見をお聞かせください。 編集者に手紙を送信してください: [email protected]。