欧州連合はメタ社に対し、児童保護に関する法律を早急に一掃しなければ「重い制裁」のリスクに直面する必要があると、率直な警告を発した。
この警告は、政府の報告を受けてのものである。 ウォールストリートジャーナル 昨日。 WSJはスタンフォード大学とマサチューセッツ大学アマースト校の研究者と協力し、主流のソーシャルネットワーキングプラットフォーム上で小児性愛者と児童性的虐待資料(CSAM)の販売者を結び付ける目的で設定されたインスタグラムアカウントのネットワークを潜入捜査し暴露した。
リサーチ スタンフォード大学はまた、メタ所有の写真共有サイトが自己生成 CSAM (SG-CSAM) の販売者にとって最も重要なプラットフォームであることを発見し、Instagram の推奨アルゴリズムを「SG-CSAM の宣伝におけるプラットフォームの有効性の主な理由」として挙げています。 。
で つぶやき 今朝このアドテク巨人に対する非難に対し、EU域内市場委員のティエリー・ブルトン氏は、同社の「児童保護に関する自主規定は機能していないようだ」と述べ、「マーク・ザッカーバーグ氏は今すぐ説明し、直ちに行動を起こさなければならない」と付け加えた。
ブレトン氏は、今月後半に米国のメタ本社で行われるザッカーバーグ氏との会談で子供の安全について取り上げる予定だと述べ、EUはメタ社が効果的な対策が講じられていることを示すことを期待していると述べ、この問題について厳しい期限を設けることを確認した。 8月25日、同社はEUのデジタルサービス法(DSA)に準拠することが法的に義務付けられる。
プラットフォームがCSAMのような違法コンテンツにどのように対処しなければならないかのルールを定めるDSAへの違反に対する罰金は、世界の年間売上高の6%にまで拡大する可能性がある。
Instagram と Facebook は両方とも、DSA の下で非常に大規模なオンライン プラットフォーム (別名 VLOP) に指定されており、特にレコメンダー システムやアルゴリズムからのリスクを含め、プラットフォームに付随するシステミック リスクを評価して軽減する追加の義務が課せられています。 したがって、メタがここで直面しているリスクのレベルはかなりのものであるように見えます。
「8月25日以降、#DSAの下でメタ社は我々に対して措置を示さなければ、重い制裁に直面することになる」とブレトン氏はツイートで警告しており、これはWSJの報道と報道の両方に警告を発している。 スタンフォード大学の研究論文 多数の主要なソーシャル プラットフォームにわたる CSAM の活動を調査し、「Instagram は現在、これらのネットワークにとって最も重要なプラットフォームであり、買い手と売り手を結び付ける機能を備えている」と結論付けています。
行動を起こさなければ「重い制裁」を科すというブルトン政府の脅しは、EU内のメタ社に数十億ドル(複数)の罰金を科す可能性がある。
私たちは児童保護に関するブレトンの警告に対する返答を求めてメタに連絡を取ったが、本稿執筆時点では返答はなかった。
Instagram が CSAM 販売者を推奨していることが判明
同誌の調査では、小児性愛者とCSAMの販売者を結びつける際にインスタグラムの推奨アルゴリズムが果たしている役割が浮き彫りになった。
同誌と学術研究者らは、「インスタグラムは小児性愛者を結びつけ、ニッチな興味を共有する人々を結びつけることに優れた推薦システムを通じて、小児性愛者をコンテンツ販売者に誘導している」と述べた。
「プラットフォーム上のほとんどの人にとって目に見えないものですが、インスタグラム上の性的アカウントは、自分たちの興味を厚かましく主張しています。 研究者らは、インスタグラムを利用すると人々が#pedowhoreや#preteensexなどの露骨なハッシュタグを検索できるようになり、その用語を使用して児童向けコンテンツの販売を宣伝するアカウントにユーザーを結び付けることができることを発見した。 このようなアカウントは、子供たち自身によって運営されていると主張し、「あなたのために小さなふしだらな女」などの言葉を組み込んだあからさまに性的なハンドルを使用していることがよくあります。
メタ社は、出版に先立ってWSJから寄せられた質問に答え、児童を性的対象とする数千のハッシュタグをブロックしたと述べ、その一部には同誌の報告書が数百万件の投稿があったと明らかにしている。
テクノロジー大手はまた、自社のシステムが児童性的虐待に関連することが知られているユーザーに検索用語を推奨することを制限したと述べた。
WSJの報道には、調査に関わった研究者らが小児性愛関連のハッシュタグを検索した際にインスタグラムが提供したポップアップのスクリーンショットが含まれており、「これらの結果には児童性的虐待の画像が含まれている可能性がある」と警告していた。 通知の文面では、CSAM を閲覧することによる法的リスク、性的虐待が子どもにもたらす害についても説明し、ユーザーに「リソースを入手する」という 2 つの選択肢を提示する前に、「機密のサポートを受ける」か「不適切な」コンテンツを報告するためのリソースを提案しました。または「とにかく結果を確認してください」 – プラットフォームがハッシュタグに関連する CSAM の問題を認識していながら、コンテンツを削除できなかったり、ユーザーのアクセスをブロックしたりできなかったことを示唆しています。
WSJによると、メタ社はCSAMの疑いがある情報をユーザーに閲覧させるオプションを問い合わせた後に削除しただけであり、その報告書によると、メタ社はそもそもなぜそのようなオプションを提供したのか説明を拒否したという。
Instagram のレコメンダー エンジンが本質的に CSAM 販売者のアカウントを促進するという積極的な役割を果たしているのも、同プラットフォームが CSAM の疑いがあるものを特定できることがわかっていることを考えると、同様に問題であるように見えます。なぜ Meta がエンゲージメントを促進するためにユーザーに導入している行動監視を活用しなかったのかという疑問が生じています。小児性愛者ネットワークをマッピングして閉鎖するために、同様のプラットフォーム活動の発見に基づいてアカウントとコンテンツを照合することで、広告収入を増やします。
これについてメタ社はWSJに対し、同社のシステムが潜在的に小児性愛者の成人同士でつながりを持ったり、互いのコンテンツを操作したりすることを推奨しないように取り組んでいると語った。
同ジャーナルの報道では、児童向けコンテンツを送信することで悪名高い暗号化ファイル転送サービスへのリンクに対してインスタグラムのアルゴリズムがプラットフォーム側で適用したブロックを回避するために、追加の検索語を自動提案した例も記録している。
WSJのレポートでは、Instagram上で未成年の販売者アカウントを1つだけ閲覧しただけで、プラットフォームがユーザーに新しいCSAM販売者アカウントの閲覧を推奨した経緯についても詳述している。
「スタンフォード大学とジャーナルによって注目を集めた同社のアカウントの最初の徹底的な調査の後、マサチューセッツ大学の [Brian Levine, director of the Rescue Lab] Instagram に残っている未成年の販売者アカウントの一部にチェックインしました。 以前と同様に、それらのうちの 1 つでも表示すると、Instagram が新しいものを推奨するようになりました。 Instagramの提案は、プラットフォーム自身の安全スタッフが解体しようとしていたネットワークの再構築に役立っている」と付け加えた。