Facebook の親会社である Meta は、ヘイトスピーチや嫌がらせなど、プラットフォーム上で許可されているコンテンツと許可されていないコンテンツに関する規則がすべての人に適用されると述べています。
しかし、Meta の最も困難なコンテンツ モデレーションの決定のいくつかを審査する任務を負った委員会は、火曜日、ソーシャル メディアの巨人の主張は「誤解を招く」ものであると述べました。
2021 年、Meta は監視委員会にクロスチェックと呼ばれるプログラムを調査するよう依頼しました。これにより、Facebook や Instagram の有名人、政治家、その他の著名なユーザーが、プラットフォームのルールに違反しているとしてフラグが立てられた場合に、追加のレビューを得ることができます。 ウォールストリートジャーナル は昨年、このプログラムの詳細を明らかにし、このシステムが何百万人もの注目度の高いユーザーを、Facebook が通常その規則を施行する方法から保護していることに注目しました。 たとえば、ブラジルのサッカー スター、ネイマールは、Facebook がコンテンツを削除する前に、自分をレイプしたと告発した女性のヌード写真を数千万人のファンと共有することができました。
で 57ページの政策諮問意見 このプログラムについて、監視委員会は、Meta のクロスチェック プログラムにいくつかの欠陥があることを確認しました。これには、一部の著名なユーザーにより多くの保護を提供することが含まれます。 この意見は、Meta のプログラムが意図したとおりに機能しているかどうかについても疑問を投げかけています。
「この意見は、Meta のクロスチェック プログラムが、Meta に対する商業的価値の影響力のある強力なユーザーを優先し、構造化された方法では、Meta の人権責任と企業価値を満たしていないことを詳述しており、ユーザーとグローバルな市民社会に深刻な影響を与えています」と Thomas Hughes のディレクターは述べています。監視委員会の管理は声明で述べた。
Meta のクロスチェック プログラムについて知っておくべきことは次のとおりです。
メタはなぜこのプログラムを作成したのですか?
Meta によると、クロスチェック プログラムの目的は、会社がルールに違反していないコンテンツに対して誤った措置を講じるのを防ぐことです。特に、エラーを犯すことに関連するリスクが高い場合にそうです。
の 会社 は、このプログラムを報道機関、有名人、または政府からの投稿に適用したと述べています。 「たとえば、私たちはアメリカの公民権活動家のアカウントをクロスチェックして、彼が遭遇したヘイトスピーチの認識を高めた事例を誤って削除しないようにしました。 ブログ投稿 2018年。
同社は、プログラムがどのように機能するかについての詳細も提供しています。 透明度センター.
取締役会はクロスチェックでどのような問題を発見しましたか?
委員会は、プログラムが「ユーザーの不平等な扱い」につながると結論付けました。これは、人間による追加レビューのフラグが立てられたコンテンツがプラットフォーム上に長くとどまるためです。 メタ氏は取締役会に対し、同社がクロスチェックに参加しているユーザーからのコンテンツについて決定を下すまでに 5 日以上かかる可能性があると語った。
「これはクロスチェックの結果、Meta のルールに違反していると特定されたコンテンツが、最もバイラルで害を及ぼす可能性があるときに Facebook と Instagram に残されることを意味する」と意見書は述べている。
意見によると、このプログラムは、人権へのコミットメントよりもメタのビジネス上の利益に利益をもたらすようにも見える. 理事会は、プログラムの透明性の問題を指摘しました。 メタは、誰がクロスチェック リストに載っているかを公開せず、プログラムが実際に会社がより正確なコンテンツ モデレーションの決定を下すのに役立つかどうかについてのデータを追跡していません。
理事会は、プログラムについて Meta 74 に質問しました。 メタは 58 の質問に完全に回答し、11 は部分的に回答しました。 同社は 5 つの質問に回答しませんでした。
取締役会は、クロスチェックのためにメタにどのような変更を加えることを推奨しましたか?
理事会は Meta に 32 の勧告を行い、人権にとって重要なコンテンツを優先し、それらのユーザーをビジネス パートナーとは別のワークフローでレビューする必要があると指摘しました。 ユーザーのフォロワー数や有名人のステータスだけが、特別な保護を受けるための唯一の要因であってはなりません。
メタはまた、モデレーターが投稿を再確認している間、最初のレビュー中にルール違反のフラグが立てられた非常に深刻なコンテンツを削除または非表示にする必要があります。
「そのようなコンテンツを投稿した人がビジネスパートナーまたは有名人であるという理由だけで、ビューを獲得するプラットフォームにそのようなコンテンツを残すことは許可されるべきではありません」と意見は述べています.
理事会はまた、国家関係者、政治家候補、ビジネス パートナーなど、クロスチェックで保護されている一部のアカウントを公にマークすることで、Meta がプログラムについてより透明になることを望んでいます。 ユーザーは、クロスチェックされたコンテンツを掲示板にアピールできる必要もあります。
メタは取締役会の意見にどのように対応しましたか?
同社は、取締役会の意見を検討しており、90 日以内に回答すると述べた。
Meta は過去 1 年間、クロスチェック レビューを 30 億のユーザー全員に拡大するなど、プログラムの改善に取り組んできたと述べた。 同社は、アルゴリズムを使用して、コンテンツが誤って削除されるリスクが高いかどうかを判断すると述べています。 Meta はまた、誰が特別なレベルのレビューを受けているかを調べるために、年次レビューを確立したことにも言及しました。