Twitter は、ジャーナリスト、政治家、VC にとってオンラインの冷水器として機能しているにもかかわらず、このブロックで最も収益性の高いソーシャル ネットワークではありません。 内部の混乱と、より多くのお金を稼ぐようにという投資家からの圧力の高まりの中で、Twitter はアダルト コンテンツの収益化を検討したと伝えられています。
によると 報告 The Verge から、Twitter はアダルト クリエイターがソーシャル メディア プラットフォームでサブスクリプションを販売できるようにすることで、OnlyFans の競争相手になる態勢を整えていました。 その考えは最初は奇妙に聞こえるかもしれませんが、実際にはそれほど風変わりではありません。Twitter は、ポルノの投稿がガイドラインに違反していない唯一の主要なプラットフォームの 1 つであるため、OnlyFans アカウントを宣伝する手段として既に Twitter に依存しているアダルト クリエイターもいます。
しかし、Twitter は明らかに、このプロジェクトを保留にしたようです。これは、製品のセキュリティ上の欠陥をテストするために設計された 84 人の従業員からなる「レッド チーム」が、Twitter が児童の性的虐待コンテンツ (CSAM) と同意のないヌードを大規模に検出できないことを発見したためです。 また、Twitter には、アダルト コンテンツの作成者と消費者が 18 歳以上であることを確認するツールがありませんでした。レポートによると、Twitter のヘルス チームは、2021 年 2 月以来、プラットフォームの CSAM 問題について上層部に警告していました。
このようなコンテンツを検出するために、Twitter は Microsoft が開発した PhotoDNA と呼ばれるデータベースを使用します。これは、プラットフォームが既知の CSAM をすばやく識別して削除するのに役立ちます。 しかし、CSAM の一部がまだそのデータベースに含まれていない場合、新しい画像やデジタル的に変更された画像は検出を逃れる可能性があります。
ジョンズ・ホプキンス情報セキュリティ研究所のマシュー・グリーン准教授は、次のように述べています。 「そして、Twitter はほぼ全員が使用しているのと同じ PhotoDNA スキャン技術を使用していることが判明しました。」
Twitter の年間収益 — 約 50億ドル 2021 年に — 昨年 2,570 億ドルの収益を上げた Google のような企業と比較すると小さいです。 Google には、CSAM を特定するためのより洗練された技術を開発するための財政的手段がありますが、これらの機械学習を利用したメカニズムは絶対確実ではありません。 メタも使用 Google のコンテンツ セーフティ API CSAM を検出します。
「この新しい種類の実験技術は業界標準ではありません」と Green 氏は説明します。
一つで 最近の事例、ある父親が、幼児の性器が腫れて痛みを感じていることに気づき、息子の主治医に連絡しました。 遠隔医療の予約に先立って、父親は息子の感染の写真を医師に送りました。 Google のコンテンツ管理システムは、これらの医療画像に CSAM のフラグを立て、父親をすべての Google アカウントから締め出しました。 警察は警告を受け、父親の捜査を開始しましたが、皮肉なことに、Google Fi の電話番号が切断されたため、父親と連絡を取ることができませんでした。
「これらのツールは新しいものを見つけることができるという点で強力ですが、エラーが発生しやすいです」と Green 氏は TechCrunch に語った。 「機械学習は、何かを医者に送ることと実際の子供への性的虐待との違いを知りません。」
この種のテクノロジーは子供たちを搾取から守るために導入されていますが、批評家は、この保護の代償(大規模な監視と個人データのスキャン)が高すぎると懸念しています。 Apple は昨年、NeuralHash と呼ばれる独自の CSAM 検出技術を展開する予定でしたが、セキュリティの専門家やプライバシー擁護者が、この技術は政府当局によって簡単に悪用される可能性があると指摘したため、この製品は破棄されました。
電子フロンティア財団の政策アナリストであるジョー・マリンは、「このようなシステムは、警察やコミュニティのメンバーが友好的でない場所にいるLGBTの親を含む、脆弱なマイノリティについて報告する可能性があります」と書いています。 ブログ投稿. 「Google のシステムは、独裁国家や腐敗した警察が存在する地域の当局に、不当に告発された親が適切な正当な手続きを保証されない場合、親を誤って報告する可能性があります。」
これは、ソーシャル プラットフォームが子どもたちを搾取から保護するためにこれ以上何もできないという意味ではありません。 2 月まで、Twitter にはユーザーが CSAM を含むコンテンツにフラグを付ける方法がありませんでした。つまり、ユーザーが報告した後、Web サイトの最も有害なコンテンツの一部が長期間オンラインに残る可能性がありました。 去年は2人 Twitterを訴えた 容疑者のため 儲かる 性的人身売買の十代の犠牲者として記録されたビデオから。 この訴訟は、米国第 9 巡回控訴裁判所に送られます。 この場合、原告は、Twitter がビデオについて通知されたときにビデオを削除しなかったと主張しました。 動画の再生回数は 167,000 回を超えました。
Twitter は困難な問題に直面しています。プラットフォームが十分に大きいため、すべての CSAM を検出することはほとんど不可能ですが、より堅牢な保護手段に投資するほどの収益はありません。 によると The Vergeのレポート、Elon MuskによるTwitterの買収の可能性も、同社の安全衛生チームの優先事項に影響を与えました. 先週、Twitter はヘルスチームを再編成し、代わりにスパムアカウントの特定に注力したと言われています — Musk は、Twitter がプラットフォーム上でのボットの蔓延について嘘をついていると熱烈に主張し、これが 440 億ドルの取引を終了したい理由として挙げています。
「Twitterが行うすべてのことは、良いことも悪いことも、「これが裁判にどのように影響するか」という観点から、今検討されることになるでしょう。 [with Musk]?」 グリーンは言った。 「数十億ドルが危険にさらされる可能性があります。」
Twitter は TechCrunch のコメント要請に応じなかった。