人種、性別、年齢に関する偏見など、AI に関する問題がますます表面化するにつれて、多くのテクノロジー企業は、表面上はそのような問題の特定と軽減に専念する「倫理的 AI」チームを設置しました。
Twitter の META 部門は、同社の AI システムに関する問題の詳細を公開し、外部の研究者が新しい問題についてアルゴリズムを調査できるようにすることにおいて、他の部門よりも進歩的でした。
昨年、Twitter ユーザーが、画像のトリミング方法を選択する際に、写真トリミング アルゴリズムが白い顔を好むように見えることに気付いた後、Twitter は、META 部門が明らかにした偏見の詳細を公開するという異例の決定を下しました。 このグループはまた、外部の研究者が他の問題についてアルゴリズムをテストできるようにする、史上初の「バイアス バウンティ」コンテストの 1 つを開始しました。 昨年 10 月、Chowdhury のチームも 意図しない政治的偏見の公開された詳細 Twitter で、右派のニュース ソースが左派のニュース ソースよりも実際にどのように宣伝されたかを示しています。
外部の研究者の多くは、レイオフは Twitter だけでなく、AI の改善への取り組みにとって打撃であると考えていました。 「なんという悲劇だ」 ケイト・スターバードオンラインの偽情報を研究しているワシントン大学の准教授は、Twitter に次のように書いています。
ツイッターの内容
このコンテンツは、次のサイトでも表示できます。 由来する から。
「META チームは、AI 倫理グループを運営するテクノロジー企業の唯一の優れたケース スタディの 1 つであり、実質的な信頼性を持って一般の人々や学界と交流しています」と述べています。 アリ・アルカティブ、サンフランシスコ大学応用データ倫理センター所長。
Alkhatib は、Chowdhury は AI 倫理コミュニティ内で信じられないほどよく考えられており、彼女のチームは Big Tech に説明責任を負わせるために真に価値のある仕事をしたと述べています。 「真剣に取り組む価値のある企業倫理チームは多くありません」と彼は言います。 「これは、私がクラスで教えた作品の 1 つです。」
マーク・リードルジョージア工科大学で AI を研究している教授は、Twitter やその他のソーシャル メディアの巨人が使用するアルゴリズムは人々の生活に大きな影響を与えており、研究する必要があると述べています。 「META が Twitter の内部に影響を与えたかどうかは、外部から見分けるのは困難ですが、約束はそこにありました」と彼は言います。
Riedl 氏は、部外者が Twitter のアルゴリズムを調査できるようにしたことは、透明性を高め、AI に関する問題を理解するための重要なステップであると付け加えています。 「彼らは、AI が私たちにどのような影響を与えているかを理解するのに役立つ番犬になりつつありました」と彼は言います。 「META の研究者は、社会的利益のために AI を研究してきた長い歴史を持つ優れた資格を持っていました。」
Twitterアルゴリズムをオープンソース化するというマスクの考えについては、現実はもっと複雑だ。 情報が表示される方法に影響を与えるさまざまなアルゴリズムが多数あり、ツイート、ビュー、およびいいね! に関してフィードされているリアルタイムのデータがなければ、それらを理解することは困難です.
明白な政治的傾向を持つ 1 つのアルゴリズムがあるという考えは、より陰湿な偏見や問題を抱えている可能性のあるシステムを単純化しすぎる可能性があります。 これらを明らかにすることは、まさに Twitter の META グループが行っていた作業です。 「独自のアルゴリズムのバイアスとエラーを厳密に研究しているグループは多くありません」と、サンフランシスコ大学の Alkhatib は言います。 「METAがそれをやった」 そして今、そうではありません。