それは 2022 年 4 月 1 日、私はマンハッタンのミッドタウンにある法律事務所の会議室で、コンテンツの決定を精査する独立機関であるメタの監視委員会の会議に出席していました。 そして数分間、絶望が始まったように見えた.
当面のトピックは、Meta の物議を醸す Cross Check プログラムであり、特定の強力なユーザー (有名人、ジャーナリスト、政府関係者など) からの投稿を特別扱いするものでした。 何年もの間、このプログラムは秘密裏に運営されており、メタはその範囲について取締役会を誤解させることさえありました。 いつ プログラムの詳細 に漏れた ウォールストリートジャーナル、何百万人もの人々がその特別な扱いを受けていることが明らかになりました. アイデアは、話者が目立っているためにエラーがより大きな影響を与える場合、またはメタを困らせる場合の間違いを避けることでした. 内部文書は、メタ研究者がプロジェクトの妥当性について懸念を持っていることを示しました。 その露出の後で初めて、Meta は取締役会にプログラムを見て、会社がそれで何をすべきかを提案するように依頼しました。
私が目撃した会議は、その計算の一部でした。 そして、議論のトーンから、取締役会は、公平を期すという名目で Meta を完全に閉鎖することを提案するのではないかと思いました。 「政策は万人のためのものであるべきだ!」 理事の一人が叫んだ。
それは起こりませんでした。 今週、ソーシャル メディアの世界は、イーロン マスクが Twitter で行っているオペラのコンテンツ モデレーションの難破船の調査から一時停止しました。 そのクロスチェックレポート、メタが情報を提供する際に足を引きずっているため、遅れました。 (少なくとも誰かが投稿を詳しく調べるまで、誰が削除を回避する特別な許可を得たかを特定するリストを取締役会に提供することはありませんでした。) 結論は痛烈でした. Meta は、このプログラムの目的はコンテンツに関する意思決定の質を向上させることだと主張しましたが、取締役会は、それは会社のビジネス上の利益を保護するためのものであると判断しました。 メタは、プログラムを監視し、その使命を果たしているかどうかを評価するプロセスを設定したことはありません。 外の世界に対する透明性の欠如は恐ろしいものでした。 最後に、Meta は頻繁にパーソナライズされた迅速なアクションを提供できませんでした。 メタのチームが処理するには、これらのケースが多すぎました。 彼らはしばしば何日も起きていたが、二次的な考慮が与えられた.
オリジナルで紹介された代表的な例 WSJ レポートは、性的な画像を投稿したブラジルのサッカースター、ネイマールからの投稿でした 対象者の同意なしに 2019 年 9 月。クロス チェックのエリートとして特別な扱いを受けたため、この画像は目に余るポリシー違反であり、最終的に削除されるまでに 5,600 万回以上再生されました。 このプログラムは、コンテンツの決定ミスの影響を軽減することを目的としていました ブースティング 恐ろしいコンテンツの影響。
それでも取締役会は、Meta が Cross Check を閉鎖することを推奨しませんでした。 代わりに、オーバーホールが必要でした。 その理由は、決してプログラムを支持するものではなく、コンテンツのモデレーションが非常に困難であることを認めているためです。 のサブテキスト 監視委員会の報告 物事を正しくすることが可能だと信じることの絶望でした。 メタは、ユーザーに発言権を与える他のプラットフォームと同様に、警戒する前に長い間成長を強調し、警察に多額の支出を必要とする膨大な量のコンテンツをホストしていました。 メタはモデレーションに何百万ドルも費やしていますが、それでも何百万ものエラーが発生します。 これらの間違いを真剣に削減するには、会社が喜んで費やすよりも多くの費用がかかります。 Cross Check の考え方は、最も重要な、または著名な人物からの投稿のエラー率を最小限に抑えることです。 有名人や政治家がそのプラットフォームを使用して何百万人もの人々と話をしたとき、メタは失敗したくありませんでした。