TikTokには モデレートシステムのアップデートを発表これにより、YouTube のコミュニティ ガイドラインの違反警告と同様に、アカウント違反警告が実施されます。 同社は、以前のシステムが作成者を混乱させ、悪意のある人物に悪用される可能性があるため、これを行っていると述べています.
TikTok がビデオやコメントなどのコンテンツをコミュニティ ガイドラインに違反して削除した場合、その背後にあるアカウントは 90 日後に期限切れになる警告を受けます。 ストライキには複数の種類があります。コメントやライブなどの特定の製品機能や、TikTok のポリシーのセクションに対してストライキを取得できます (したがって、危険なチャレンジを行った場合のストライキが、スパム コメントを残した場合のストライキと必ずしもカウントされるとは限りません)。
どのカテゴリでも十分な数のストライキを取得すると、恒久的な禁止が行われますが、しきい値は「違反がコミュニティ メンバーに害を及ぼす可能性」によって異なります。 TikTok は、これらの制限が何であるかを正確に述べていません。 同社はまた、「ポリシーと機能全体で多数の累積ストライキ」を受けた人を禁止すると述べています。
同社によると、ストライキ システムは「重大な違反」には適用されないという。児童の性的虐待の内容、現実世界の暴力の脅威、またはその他の極端なコンテンツを投稿したことが発覚した場合は、直ちに禁止される可能性がある.
TikTokは、クリエイターがストライキを確認して異議を申し立てることができるアプリのセーフティセンターのアップデートを展開しており、永久的な禁止に近づいている場合はユーザーに警告を与えると述べています. また、あなたの動画がアルゴリズムによって人々の For You ページに掲載されないかどうかを通知する機能と、その動画が不適格とマークされた理由の説明もテストしています。
同社によると、これはすべて、モデレーションの決定に関する透明性を高め、偶発的に規則に違反するだけのクリエイターのために物事を明確にする一方で、再犯者を取り締まるための動きである. また、一時的な禁止や制限を含む以前のアカウント強制システムが、一部のクリエイターを混乱させる可能性があることも認めています.
TikTok は、特にコンテンツの推奨方法に関して、透明性と説明責任について多くの精査に直面してきました。 政府所有の特定のデバイスにブロックを実装する議員が増えているため、同社は米国で完全に禁止される可能性に直面しています。