Twitter は本日、約 100 人の独立した研究者と人権活動家で構成される諮問グループである Trust & Safety Council を解散させました。 2016 年に結成されたこのグループは、さまざまなコンテンツや、児童性的虐待コンテンツ (CSAM) の削除、自殺防止、オンラインの安全性などの人権関連の問題について、ソーシャル ネットワークに情報を提供しました。 このグループは世界中の専門家で構成されていたため、これは Twitter のグローバル コンテンツ モデレーションに影響を与える可能性があります。
によると 多数 レポート、評議会のメンバーは月曜日にTwitterからメールを受け取り、評議会は会社の製品とポリシー戦略に関する外部の洞察を得るのに「最適な構造ではない」と述べました。 同社は評議会メンバーからのアイデアを「引き続き歓迎する」と述べたが、それらが考慮されるかどうかについての保証はなかった. アイデアを提供するためのアドバイザリー グループが解散したことを考えると、「感謝しますが、感謝しません」と言っているような気がします。
からの報告 ウォールストリートジャーナル この電子メールは、評議会が信頼と安全の新しい責任者であるエラ・アーウィンやシニア・パブリック・ポリシー・ディレクターのニック・ピクルスを含むツイッターのスタッフと予定されていた会議の1時間前に送信されたことに注意してください.
この展開はその後 Trust & Safety協議会の主要メンバー3人が辞任 先週。 メンバー 手紙で言った イーロン・マスクは、プラットフォームでのユーザーの安全に重点を置いていると主張しているにもかかわらず、グループを無視した.
「評議会の設立は、ユーザーの安全に対する米国中心のアプローチから脱却し、地域を超えた協力を強化し、安全チームに経験豊富な人々を配置することの重要性を示す Twitter のコミットメントを表しています。 与えられた最後のコミットメントはもはや明白ではありません。 Twitterの最近の声明 自動化されたコンテンツ モデレーションに大きく依存するようになります。 アルゴリズムシステムは、検出可能なパターンが発達する前に、進化し続ける虐待やヘイトスピーチからユーザーを保護することしかできません.
Twitter を乗っ取った後、Musk は「多様な見解」を持つ新しいコンテンツ モデレーション カウンシルを設立する予定であると述べましたが、その前線で進展はありませんでした。 私の同僚である Taylor Hatmaker が 8 月の記事で述べたように、堅牢なコンテンツ フィルタリング システムのセットがないと、LGBTQ コミュニティのような過小評価されたグループに害を及ぼす可能性があります。