マイクロソフトは、人工知能組織内の倫理および社会チーム全体を解雇しました。 最近のレイオフ 会社全体で10,000人の従業員に影響を与えました プラットフォーマー 学びました。
現在および元の従業員によると、この動きにより、Microsoft は、AI ツールを主流に利用できるようにするための責任をリードしているときに、AI の原則が製品設計に密接に結びついていることを保証するための専任チームを持たないことになります。
マイクロソフトはまだアクティブを維持しています 責任ある AI のオフィスは、会社の AI イニシアチブを管理するためのルールと原則を作成する任務を負っています。 同社は、最近のレイオフにもかかわらず、責任ある仕事への全体的な投資が増加していると述べています。
「Microsoft は、安全かつ責任を持って AI 製品とエクスペリエンスを開発することに取り組んでおり、これを優先する人、プロセス、およびパートナーシップに投資することによってそれを行っています」と同社は声明で述べています。 「過去 6 年間で、マイクロソフトの全社員とともに、当社の AI 原則を確実に実践する責任を負う、製品チーム全体および Office of Responsible AI 内の人数を増やしてきました。 […] 私たちは、Ethics & Society が現在進行中の責任ある AI の旅を支援するために行った先駆的な取り組みに感謝しています。」
しかし従業員は、倫理と社会のチームは、同社の責任ある AI 原則が出荷される製品の設計に実際に反映されるようにする上で重要な役割を果たしたと述べています。
「私たちの仕事は、ルールが存在しない地域でルールを作成することでした。」
「人々は、責任ある AI のオフィスから出てくる原則を見て、『これがどのように適用されるのかわからない』と言うでしょう」と元従業員の 1 人は言います。 「私たちの仕事は、それらを示し、何もない地域にルールを作成することでした。」
近年、チームはジャッジメント コールと呼ばれるロールプレイング ゲームを設計しました。このゲームは、設計者が AI に起因する潜在的な害を想定し、製品開発中にそれらについて話し合うのに役立ちました。 それはより大きな「責任あるイノベーション ツールキット」 チームが公開したこと。
最近では、チームは Microsoft が製品スイート全体に OpenAI のテクノロジを採用することによってもたらされるリスクを特定するために取り組んでいます。
倫理と社会のチームは、エンジニア、デザイナー、哲学者を含む約 30 人の従業員を抱えていた 2020 年に最大になりました。 10 月には、組織再編の一環として、チームは約 7 人に削減されました。
組織再編後のチームとのミーティングで、AI 担当コーポレート バイス プレジデントのジョン モンゴメリーは従業員に、会社のリーダーが迅速に行動するように指示したと語った。 「からのプレッシャー [CTO] ケビン [Scott] と [CEO] サティヤ [Nadella] これらの最新の OpenAI モデルとその後のモデルを非常に高速に顧客の手に渡すことは、非常に高いことです。」 プラットフォーマー.
モンゴメリー氏によると、そのプレッシャーのために、チームの多くは組織の他の部門に移動する予定だったという。
チームの何人かのメンバーは押し返しました。 「この決定を再考していただくよう、大胆にお願いするつもりです」と、ある従業員は電話で語った. 「ビジネス上の問題があることは理解していますが…このチームが常に深く懸念しているのは、私たちが社会にどのように影響を与えるか、そして私たちが持ってきた悪影響です。 そして、それらは重要です。」
モンゴメリーは辞退した。 「考え直してもいいですか? 私はそうなるとは思わない」と彼は言った。 「残念ながら、プレッシャーは同じままです。 あなたは私が持っている見解を持っていません、そしておそらくあなたはそのことに感謝することができます. ソーセージにはたくさんのものがすりつぶされています。」
しかし、質問に答えて、モンゴメリーはチームが排除されることはないと述べた.
「消えているわけではありません。進化しているということです」と彼は言いました。 「サービスとソフトウェアを構築している個々の製品チームにより多くのエネルギーを投入する方向に進化しています。これは、一部の作業を行ってきた中央ハブがその能力と責任を委譲していることを意味します。」
チームのほとんどのメンバーは、マイクロソフト内の別の場所に異動しました。 その後、残りの倫理および社会チームのメンバーは、乗組員が少なかったために野心的な計画を実行することが困難になったと述べました.
この動きは、AI製品の全体的な設計に根本的なギャップを残す、とある従業員は言う
約 5 か月後の 3 月 6 日、残りの従業員は午前 11 時 30 分 (PT) に Zoom 通話に参加して、モンゴメリーから「ビジネスに重要な最新情報」を聞くように言われました。 会議中、彼らは結局彼らのチームが排除されていると言われました.
ある従業員は、この動きにより、ユーザー エクスペリエンスと AI 製品の全体的な設計に根本的なギャップが生じると述べています。 「最悪の事態は、これを行うことでビジネスをリスクにさらし、人間をリスクにさらしたことです」と彼らは説明しました。
この対立は、製品の社会的責任を高めることに専念する部門を構築するテクノロジー大手の間で継続的な緊張が高まっていることを浮き彫りにしています。 最良の場合、製品チームがテクノロジーの潜在的な誤用を予測し、出荷前に問題を修正するのに役立ちます。
しかし、彼らはまた、それを聞きたがらないことが多い組織内で「ノー」または「スピードダウン」と言ったり、法的な証拠開示で表面化した場合に会社にとって法的な問題につながる可能性のあるリスクを説明したりする仕事もあります。 そして、結果として生じた摩擦が、時として世間の目にさらされることがあります。
2020 年、Google 解雇された倫理的 AI 研究者 Timnit Gebru 彼女は、2 年後に爆発的に普及する大規模な言語モデルに批判的な論文を発表した後、 結果として生じた怒りは、 部門内のさらに数人のトップリーダーの退職、責任ある AI の問題に関する会社の信頼性を低下させました。
マイクロソフトは、ライバルよりも早く AI ツールを出荷することに注力するようになりました
倫理と社会のチームのメンバーは、一般的に製品開発を支援しようとしていると述べました. しかし、Microsoft が競合他社よりも早く AI ツールを出荷することに注力するようになると、同社の経営陣は、チームが専門とする長期的な考え方にあまり関心を持たなくなったという。
それは綿密な精査に耐えるダイナミクスです。 一方では、Microsoft は今や、検索、生産性ソフトウェア、クラウド コンピューティング、および巨大企業が競合するその他の分野で、Google に対して大きな牽引力を獲得する、一世代に一度のチャンスを手にしているかもしれません。 Bing with AI を再開したとき、同社は投資家に次のように語った。 検索で Google から市場シェアを 1% 奪うと、年間収益は 20 億ドルになります。.
その可能性は、マイクロソフトがこれまでに持っている理由を説明しています OpenAI に 110 億ドルを投資、そして現在、スタートアップのテクノロジーをその帝国の隅々に統合するために競争しています. 初期の段階ではある程度の成功を収めているようだ。同社は先週、Bing の 1 日のアクティブ ユーザー数は現在 1 億人に達しており、そのうちの 3 分の 1 は OpenAI の技術で検索エンジンが再開されて以来の新規ユーザーであると述べた。
一方で、AI の開発に携わるすべての人は、この技術が既知および未知の潜在的な潜在的リスクをもたらすことに同意しています。 テクノロジーの巨人は、こうしたリスクを真剣に受け止めていることを示すために苦労してきました。 3 つの異なるグループ 倫理と社会のチームが排除された後も、この問題に取り組んでいます。 しかし、利害関係を考えると、責任ある仕事に焦点を当てたチームへの削減は注目に値するようです。
倫理と社会のチームの排除は、グループの残りの従業員がおそらく最大の課題に焦点を合わせていたときに起こりました.MicrosoftがOpenAIを搭載したツールを世界中の聴衆にリリースしたときに何が起こるかを予測する.
昨年、チームは、ブランド リスクに関連する詳細を記したメモを書きました。 Bing イメージ クリエーター、OpenAI の DALL-E システムを使用して、テキスト プロンプトに基づいて画像を作成します。 画像ツール 10月に少数の国で発売これは、Microsoft と OpenAI との最初のパブリック コラボレーションの 1 つです。
テキストから画像への技術は非常に人気があることが証明されていますが、マイクロソフトの研究者は、誰でも簡単に自分のスタイルをコピーできるようにすることで、アーティストの生活を脅かす可能性があると正しく予測しました.
「Bing Image Creator をテストしたところ、アーティストの名前と媒体 (絵画、版画、写真、または彫刻) だけを含む単純なプロンプトで、生成された画像を元の作品と区別することはほとんど不可能であることがわかりました」と研究者は書いています。メモ。
「ブランドに損害を与えるリスクは…現実にあり、是正が必要なほど重大です。」
「アーティストとその金銭的利害関係者の両方に対するブランドの損害のリスク、およびアーティストの苦情と否定的な世間の反応に起因するMicrosoftへの否定的なPRは現実的であり、Microsoftのブランドに損害を与える前に救済を必要とするほど重要です。」
さらに昨年、OpenAI は利用規約を更新し、ユーザーに「DALL-E で作成した画像の完全な所有権」を与えました。 この動きは、Microsoft の倫理および社会チームを不安にさせました。
「AI画像ジェネレーターが作品の画像を数学的に複製する場合、プロンプトを提出した人が結果の画像の完全な所有権を持っていると示唆することは倫理的に疑わしい」と彼らはメモに書いた.
マイクロソフトの研究者は、Bing Image Creator ユーザーが生きているアーティストの名前をプロンプトとして使用するのをブロックすることや、誰かが自分の名前を検索した場合に表示されるアーティストの作品を販売する市場を作成することなど、緩和戦略のリストを作成しました。
従業員は、これらの戦略はどちらも実行されなかったと述べており、Bing Image Creator はいずれにせよ、テスト対象の国に導入されました。
マイクロソフトによると、このツールはドキュメントで提起された懸念に対処するためにリリース前に修正され、担当の AI チームによる追加作業が促されました。
しかし、この技術に関する法的問題は未解決のままです。 2023 年 2 月、Getty Images は AI アート ジェネレーター Stable Diffusion のメーカーである Stability AI に対して訴訟を起こしました。 Getty は、AI スタートアップが 1,200 万枚以上の画像を不適切に使用してシステムをトレーニングしたと非難しました。
この告発は、Microsoft 自身の AI 倫理学者によって提起された懸念を反映したものでした。 「自分の作品をトレーニング データとして使用することに同意したアーティストはほとんどいない可能性が高く、ジェネレーティブ テクノロジーを使用して自分の作品のオンライン画像のバリエーションを数秒で生成する方法をまだ多くの人が認識していない可能性があります」と従業員は昨年書いています。