二年前、 Twitter は、おそらくテクノロジー業界で最も野心的なアルゴリズムの透明性への試みを開始しました。 その研究者は、ツイート内の画像をトリミングするための Twitter の AI システムが白い顔と女性を好むことを示す論文を書きました。 米国、英国、フランスを含むいくつかの国で、政治的右派からの投稿は、より大きなアルゴリズムの後押しを受けました。 左からのものより。
昨年 10 月初旬、Elon Musk が 440 億ドルでの Twitter の買収を完了するための裁判所の期限に直面したとき、同社の最新の調査はほとんど準備ができていました。 機械学習プログラムが、「ゲイ」、「イスラム教徒」、「聴覚障害者」など、アイデンティティ、政治、またはセクシュアリティに関連する 350 の用語のいずれかに言及している一部のツイートを誤って降格させたことが示されました。周縁化されたグループも、それらのコミュニティを祝う投稿を妨害しました。 この発見と、Twitter が開発した部分的な修正は、他のソーシャル プラットフォームが AI を使用してコンテンツを監視するのに役立つ可能性があります。 しかし、誰かが研究を読むことができるでしょうか?
Musk は数か月前にアルゴリズムの透明性を支持し、Twitter のコンテンツ推奨コードを「オープンソース化」したいと述べていました。 一方、マスク氏は、ルール違反のツイートで永久追放された人気アカウントを復活させると述べていた。 彼はまた、Twitter の研究者が保護しようとしていたのと同じコミュニティのいくつかを嘲笑し、未定義の「目覚めた心のウイルス」 さらに困惑させられるのは、Tesla の Musk の AI 科学者は一般的に研究を発表していないことです。
Twitter の AI 倫理研究者は最終的に、マスクの下での見通しはあまりにも不透明であり、彼らの研究が学術雑誌に掲載されるのを待つことも、執筆を終えることさえもできないと判断した 会社のブログ 役職。 したがって、マスクが 10 月 27 日に最終的に所有権を取得する 3 週間も経たないうちに、彼らは モデレーション バイアスの研究をオープンアクセス サービス Arxiv に急ぎ、 学者がまだ査読されていない研究を投稿する場所。
当時、Twitter の機械学習倫理、透明性、説明責任グループ (META) でエンジニアリング ディレクターを務めていた Rumman Chowdhury 氏は、次のように述べています。 「実際に科学的な仕事をするのではなく、目覚めたリベラルなアジェンダの一部として倫理チームが行う仕事の種類について、多くのイデオロギーと誤解があります。」
Chowdhury 氏と他の 5 人の元従業員によると、マスク政権に対する懸念が、Twitter の機械学習および研究組織である Cortex 全体の研究者に拍車をかけ、計画よりもはるかに早く一連の研究をひそかに公開した. 結果は、誤った情報や推奨アルゴリズムなどのトピックにまたがっていました。 必死のプッシュと公開された論文は、これまで報告されていません。
研究者たちは、Twitter で発見された知識を誰もが使用できるように保存し、他のソーシャル ネットワークを改善したいと考えていました。 「私は、企業が抱えている問題についてもっと率直に話し、主導権を握ろうとし、それが実行可能であることを人々に示すべきだと強く感じています。」
Twitter と Musk は、この記事に関する詳細なコメントを電子メールで求めたが、返答はなかった。
別の研究チームは、マスクがツイッターを始めた日にArxivで公開する前に、夜通し最終的な編集を行ったと、ある研究者は、マスクからの報復を恐れて匿名で語った. 「イーロン ジャンボ ジェット機が着陸すると、滑走路が閉鎖されることはわかっていました」と情報筋は言います。 「買収が完了する前に、これを行う必要があることはわかっていました。 地面に旗を立てて、それが存在すると言うことができます。」
恐れは見当違いではありませんでした。 ツイッターの研究者のほとんどは、マスクの下で職を失うか辞職した。 META チームでは、マスクは 11 月 4 日に 1 人を除いて全員を解雇し、残りのメンバーであり、共同創設者で研究リーダーのルカ・ベリは月の後半に辞任しました。