何が起こっていますか
Meta は、ソーシャル メディアの巨人が 2021 年 5 月にイスラエルとパレスチナの紛争で人権にどのような影響を与えたかを示すレポートをリリースしました。
重要な理由
英語以外の言語でのコンテンツ モデレーションは、ソーシャル メディア企業にとって継続的な課題となっています。 メタは調査結果に応じて変更を加えています。
Fb の親会社である Meta は、2021 年 5 月にガザ地区で発生した暴力の発生時に、パレスチナ人の人権に影響を与えるコンテンツ モデレーションの誤りを犯しました。 報告 木曜日のショーをリリースしました。
Meta はコンサルティング会社 Organization for Social Accountability に、同社のポリシーと行動がパレスチナ人とイスラエル人にどのような影響を与えたかを調査するよう依頼した.
報告書は、メタの行動により、パレスチナ人が「表現の自由、集会の自由、政治参加、および差別の禁止」という人権を享受する能力が排除または縮小されたことを示しました。 また、英語以外の言語のコンテンツをモデレートすることに関して、会社が直面している継続的な課題も浮き彫りにしています。 Meta は、世界最大のソーシャル ネットワーク Facebook、写真およびビデオ サービスの Instagram、メッセージング アプリの WhatsApp を所有しています。
BSR はレポートの中で、影響を受けた利害関係者と話し、多くの人が「メタは彼らの声を抑圧する別の強力なエンティティであるように見えるという彼らの見解」を共有したと述べました。
調査結果は、昨年のイスラエルとパレスチナの紛争の中で、Meta が犯したいくつかのコンテンツ モデレーション エラーの概要を示しています。 アラビア語のソーシャル メディア コンテンツは「過度に強制された」ため、同社はパレスチナ人からの投稿を誤って削除しました。 BSR はまた、「違反している可能性のあるアラビア語コンテンツの積極的な検出率は、違反している可能性のあるヘブライ語コンテンツの積極的な検出率よりも大幅に高かった」ことも発見しました。
ヘブライ語のコンテンツは、メタがヘブライ語の「敵意のある発言」の「分類子」として知られているものを持っていなかったため、「大幅な執行不足」を経験しました. 分類子を持つことで、同社の人工知能システムは、ルールに違反する可能性のある投稿を自動的に特定することができます。 Meta はまた、ヘブライ語を話す従業員を失い、コンテンツ管理を外部委託しました。
メタはまた、ルールに違反していないコンテンツを誤って削除しました。 報告書は、「特に活動家やジャーナリストにとって、表現の自由、結社の自由、安全などの権利が重要性を増している状況を考えると、これらの過ちの人権への影響はより深刻である」と述べています。
このレポートは、Meta のプラットフォームにおける他の主要なコンテンツ モデレーションの間違いも指摘しています。 たとえば、Instagram は、エルサレム旧市街のアル アクサ モスクを参照するために使用されるハッシュタグ #AlAqsa を一時的に禁止しました。 ユーザーはまた、パレスチナ人、アラブ人イスラエル人、ユダヤ人イスラエル人、地域外のユダヤ人コミュニティに対するヘイトスピーチや暴力の扇動を投稿しました。 パレスチナのジャーナリストも、WhatsApp アカウントがブロックされたと報告しています。
しかしBSRは、社内やMetaの従業員の間で意図的な偏見は見つけられなかったが、「意図しない偏見のさまざまな例を見つけた.Metaのポリシーと慣行は、より広範な外的ダイナミクスと組み合わされて、パレスチナ語とアラビア語を話す人々にさまざまな人権への影響をもたらしている.ユーザー。」
メタは、レポートで概説されている問題に対処するために変更を加えていると述べました。 たとえば、同社は、ヘブライ語での機械学習分類器の開発と展開を継続すると述べています。
Meta の人権担当ディレクター、Miranda Sissons 氏は次のように述べています。 ブログ投稿.