あ フォーブス 報告は疑問を提起する TikTok のモデレーション チームが児童の性的虐待の素材をどのように処理しているかについて – 違法な写真やビデオへの広範な、安全でないアクセスを許可したと主張しています。
TikTok と提携している Teleperformance というサードパーティのモデレーション組織の従業員は、TikTok のモデレーション基準に関する DRR または Daily Required Reading と呼ばれる不穏なスプレッドシートを確認するよう求められたと主張しています。 スプレッドシートには、TikTok のガイドラインに違反するコンテンツが含まれていたとされており、その中には、ヌードまたは虐待を受けている子供の「数百の画像」が含まれていました。 従業員は、TikTok と Teleperformance の何百人もの人々がオフィスの内外からコンテンツにアクセスでき、より広範な漏洩への扉を開いたと述べています。
テレパフォーマンスを拒否 フォーブス TikTok は、従業員に性的に搾取するコンテンツを見せたと述べ、TikTok は、トレーニング資料には「厳格なアクセス制御があり、CSAM の視覚的な例は含まれていない」と述べましたが、すべてのサードパーティ ベンダーがその基準を満たしていることは確認していません。
従業員は別の話をします。 フォーブス レイアウト、それは法的に危険なものです。 コンテンツ モデレーターは、多くのソーシャル メディア プラットフォームに投稿された CSAM に対処することを日常的に余儀なくされています。 しかし、児童虐待の画像は米国では違法であり、慎重に取り扱う必要があります。 企業は、コンテンツを行方不明および搾取された子供のための国立センター (NCMEC) に報告し、その後 90 日間保存することになっていますが、それを見る人の数を最小限に抑えます。
ここでの主張は、その限界をはるかに超えています。 Teleperformance は、TikTok で何をタグ付けするかの例として従業員にグラフィックの写真やビデオを見せ、そのコンテンツへのアクセスをすばやく自由にプレイしていたことを示しています。 従業員の 1 人は、FBI に連絡して、この行為が CSAM の犯罪的な拡散に該当するかどうかを尋ねたと言いますが、それが開かれていたかどうかは明らかではありません。
フル フォーブス 報告 モデレーターがTikTokの爆発的な成長についていくことができず、子供に対する犯罪を監視するように言われた状況を概説しています. 子どもの安全に関するネット上の議論の複雑な基準から見ても、これは奇妙で、正確であるとしても恐ろしい状況です。