YouTube は、コメント セクションの見苦しい要素の少なくとも一部を抑制しようとしています。 火曜日、ビデオ ストリーミング プラットフォーム ポリシー ガイドラインを更新しました スパムの監視、ボットの検出、そして最も注目すべきは、コメントの削除とコンテンツ違反に対する罰則です。 ヘイトスピーチやハラスメントは 長い間悩まされた ウェブサイトの動画やチャンネルのコメント セクション。 さまざまな戦略 問題を抑えるために。 今後、YouTube は、監視システムがコミュニティ ガイドラインに違反しているとシステムが検出したコメントにフラグを立てて削除するたびに、自動的にユーザーに警告するようになります。 ユーチューブによると 解説ページ、コメント規制は、人種差別的な中傷の使用、暴力の脅威または希望、ネットいじめ、COVID-19 の誤報など、幅広い主題を対象としています。 YouTube は、この自動化システムの仕組みについて曖昧でした。
アカウントがガイドラインに違反する同様のコンテンツを投稿し続けた場合、同社は、コメントする機能が無効になる 24 時間の「タイムアウト」期間を設定する場合があります。 昨日の更新では、継続的または繰り返しの違反者が罰則を無視した場合に何が起こるかは示されていませんが、YouTube の既存の コミュニティ ガイドライン ページ サイトのルールに 90 日以内に 3 回違反したチャンネルを禁止するポリシーを示しています。
[Related: How to ensure YouTube doesn’t consume your life.]
YouTube によると、最近の限定的なテストでは、警告とタイムアウトの組み合わせにより、ユーザーが有害なコンテンツを再度投稿する可能性が全体的に低下することが示されています。 自分の投稿が誤ってフラグ付けされたと感じている人は、引き続き大歓迎です 控訴する 問題について。
「私たちの目標は、コメントを介してコミュニティに悪影響を与えようとするユーザーからクリエイターを保護することと、ポリシー違反に対してコメントを削除された可能性のあるユーザーに透明性を提供し、できればコミュニティ ガイドラインを理解してもらうことです。」 ユーチューブの更新 説明します。
この投稿では、YouTube の絶え間なく変化する自動検出システムと、スパムの検出と削除に使用される機械学習モデルについても言及しています。 YouTube は、2022 年の最初の 6 か月で、11 億件を超える「スパム」コメントを検出して削除したと述べています。 これらのモデレーション戦術は現在、ライブストリーム チャット内に投稿された虐待的な書き込みにも適用されていますが、新しいアップデートでは、機械学習とボット検出が実際に何百万ものビデオとストリーミング コメントをどのようにふるいにかけるかについての詳細は提供されていません.
[Related: How to navigate through YouTube videos like a pro.]
として TechCrunch 注記によると、同社は過去に同様のプログラムをテストしており、デフォルトでコメント セクションを非表示にしたり、ユーザーのコメント履歴をプロフィール内に表示したりしています。 先月、YouTubeも新機能を展開 これにより、クリエイターはすべてのチャネルでコメントからユーザーを非表示にできます。 サイトの最新の警告およびタイムアウト システムは現在英語でのみ利用可能ですが、同社の投稿によると、今後数か月で他の言語にも対応できるようになる予定です。
残念ながら、虐待的なコンテンツやヘイト スピーチへの対処は終わりのない物語のように感じられることが多く、YouTube はその気持ちを率直に認めているようで、次のように書いています。私たちは新しいトレンドに適応し続けます。」