Twitter の有力な代替手段と見なされている分散型ネットワークであるマストドンには、児童性的虐待の内容 (CSAM) が蔓延していると、ある報告書が発表しました。 新しい研究 から スタンフォード大学インターネット天文台 (経由 ワシントン・ポスト)。 研究者らはわずか 2 日間で、プラットフォーム上の 325,000 件の投稿にわたって既知の CSAM の 112 件のインスタンスを発見しました。最初のインスタンスはわずか 5 分の検索後に表示されました。
調査を実施するために、Internet Observatory は 25 の最も人気のある Mastodon インスタンスの CSAM をスキャンしました。 研究者らはまた、Google の SafeSearch API を使用して、フラグが設定された CSAM を見つけるのに役立つツールである PhotoDNA とともに、露骨な画像を特定しました。 調査中に、チームはオンラインで児童性的虐待グループがよく使用するハッシュタグまたはキーワードと一致する 554 個のコンテンツを発見しました。これらはすべて、Google セーフサーチによって「最高の信頼度」で露骨なものであると特定されました。
CSAMの公開投稿は「憂慮すべきほど蔓延している」
また、メディアを含む投稿では、フェディバース全体で上位 20 位の CSAM 関連ハッシュタグが 713 件使用されており、「サイト外での CSAM 取引や未成年者の手入れ」を指摘するテキストのみの投稿も 1,217 件ありました。 研究では、CSAMの公開投稿が「憂慮すべきほど蔓延している」と指摘している。
1 つの例では、今月初めに指摘した延長された mastodon.xyz サーバーの停止について言及しました。これは、Mastodon に投稿された CSAM が原因で発生したインシデントでした。 の 事件に関する投稿、サーバーの唯一の管理者は、CSAM を含むコンテンツについて警告を受けたと述べましたが、モデレーションは暇なときに行われ、完了までに最大で数日かかる場合があると述べています。これは、世界中の請負業者のチームによる Meta のような大規模な運営ではなく、たった 1 人の人間です。
彼らは問題のコンテンツに対して措置を講じたと述べたが、とにかくmastodon.xyzドメインのホストがコンテンツを一時停止しており、リストを復元するために誰かに連絡が取れるまでユーザーはサーバーにアクセスできない状態になっていた。 問題が解決された後、mastodon.xyz の管理者は、レジストラが今後の削除を防ぐためにドメインを「誤検知」リストに追加したと述べています。 ただし、研究者らが指摘しているように、「アクションの原因は誤検知ではありませんでした」。
「我々が2日間で得たphotoDNAのヒット数は、おそらく我々の組織があらゆる種類のソーシャルメディア分析を行ってきた全歴史の中で得たものよりも多く、それに近いものではない」と報告書の研究者の一人、デビッド・ティール氏は声明で述べた。 ワシントン・ポスト紙。 「その多くは、一元化されたソーシャルメディアプラットフォームが子供の安全上の懸念に対処するために使用するツールの欠如によるものと思われます。」
マストドンのような分散型ネットワークの人気が高まるにつれて、安全性に対する懸念も高まっています。 分散型ネットワークは、Facebook、Instagram、Reddit などの主流サイトと同じモデレーション アプローチを使用しません。 代わりに、各分散インスタンスにはモデレーションの制御が与えられるため、Fediverse 全体で不整合が生じる可能性があります。 だからこそ研究者らは、Mastodon のようなネットワークでは、PhotoDNA の統合や CyberTipline レポートに加えて、モデレーター向けにより堅牢なツールを採用することを提案しています。