オンラインコミュニティのモデレートは困難であり、多くの場合、ありがたい作業です。サイロで行われると、さらに困難になります。
Twitchでは、相互接続されたチャネルは、除外したいユーザーに関する情報をすでに非公式に共有しています。 同社は現在、そのアドホックプラクティスを、次のことを可能にする新しいツールで形式化しています。 チャネルは禁止リストを交換します、問題を引き起こす前に、シリアルハラサーやその他の方法で破壊的なユーザーをロックするために協力するようにコミュニティを招待します。
Twitchの製品VPであるAlisonHuffmanは、TechCrunchとの会話の中で、コミュニティのモデレーターにできるだけ多くの情報を提供することで、最終的にはコミュニティのモデレーターに力を与えることを望んでいると説明しました。 Huffmanは、Twitchがモッドとの「広範な」インタビューを実施して、モッドがより効果的に感じ、コミュニティをより安全にするために何が必要かを理解したと述べています。
モデレーターは、その場で大量の小さな決定を下す必要があります。最大の決定は、一般に、意図的に問題を引き起こしていない、誠実に行動しているユーザーとそうでないユーザーを把握することです。
「あなたが見ているのが誰かで、「ああ、これは少し色違いのメッセージです。彼らはここで新しいのか、それとも悪意があるのか」と言うなら、あなたのいずれかで禁止されているのでしょうか。友人のチャンネル、あなたが行くのは簡単です、「ええ、いいえ、これはおそらくこのコミュニティにふさわしい人ではありません」そしてあなたはその決定をより簡単にすることができます」とハフマンは言いました。
「これにより、モデレーターの精神的なオーバーヘッドが軽減されるだけでなく、コミュニティに適していない人をコミュニティからより効率的に排除できます。」
クリエイターダッシュボード内で、クリエイターとチャンネルModは、禁止されたユーザーのリストをトレードしたい他のチャンネルを促すことができます。 このツールは双方向であるため、別のストリーマーのリストを要求するチャネルは、代わりにそれらのリストを共有します。 チャネルは、禁止リストを共有するためのすべてのリクエストを受け入れるか、Twitchアフィリエイト、パートナー、および相互にフォローされているチャネルからのリクエストのみを許可できます。 すべてのチャンネルで禁止リストを最大30の他のチャンネルと交換できるため、除外したいユーザーの非常に堅牢なリストを作成でき、チャンネルはいつでもリストの共有を停止できます。
チャネルは、これらの共有リストを通じて学習したアカウントを自動的に監視するか制限するかを選択でき、デフォルトで制限されます。 「監視」されているユーザーは引き続きチャットできますが、行動を注意深く監視できるようにフラグが付けられ、最初のメッセージが赤いボックスで強調表示され、他の場所で禁止されている場所も表示されます。 そこから、チャネルはそれらを完全に禁止するか、完全にクリアにして「信頼できる」ステータスに切り替えるかを選択できます。
Twitchの最新のモデレートツールは、破壊的であることが判明する可能性があるが、明白な不正行為を禁止する会社のより広範なガイドラインに違反することをやめる可能性のあるユーザーに対して、チャネルがルールを適用するための興味深い方法です。 特に、悪意のある人が、憎悪や嫌がらせに対するTwitchのルールに明示的に違反することなく、意図的にチャンネルに嫌がらせをする可能性がある、疎外されたコミュニティのシナリオを想像するのは難しいことではありません。
Twitchは、嫌がらせには「多くの兆候」があることを認めていますが、Twitchから停止される目的で、その行動は「ストーカー行為、個人攻撃、身体的危害の促進、敵対的な襲撃、悪意のある虚偽の報告のブリゲード」と定義されています。 その定義の外側には、キャプチャするのがより難しい動作のグレーゾーンがありますが、共有禁止ツールはその方向への一歩です。 それでも、ユーザーがチャネルのローカルルールだけでなく、Twitchのプラットフォームルールに違反している場合、Twitchはチャネルにそれらを報告するように勧めます。
「これは、私たちのコミュニティガイドラインに違反することにも役立つと思います」とハフマンは言いました。 「うまくいけば、私たちが行動を起こすことができるように、それらもTwitchに報告されています。 しかし、それは、特に社会から取り残されたコミュニティに影響を与えていると私たちが見ている、標的を絞った嫌がらせに役立つと思います。」
昨年11月、Twitchは、モデレーターがチャンネル禁止を回避しようとしているユーザーを検出するための新しい方法を追加しました。 同社が「禁止回避検出」と呼んでいるこのツールは、機械学習を使用して、禁止を回避する可能性のあるチャネル内のすべてのユーザーに自動的にフラグを付け、モデレーターがそのユーザーを監視してチャットメッセージを傍受できるようにします。
新しい機能は、クリエイターがライブで、時には数十万人のユーザーにストリーミングするプラットフォームでの「階層化された」安全性に関するTwitchのビジョンに適合し、モデレートの決定はすべてのレベルでリアルタイムで行う必要があります。
「これは、チャットベースの嫌がらせを積極的に阻止するのに役立つツールの強力な組み合わせだと思います。 [and] これについて私が気に入っていることの1つは、それが人間とテクノロジーの別の組み合わせであるということです」とハフマン氏は述べています。 「禁止回避の検出では、機械学習を使用して、疑わしいと思われるユーザーを見つけるのに役立てています。 これにより、私たちは人間関係と、そのシグナルを提供するためにすでに確立している信頼できるクリエイターやコミュニティに頼っています。」
Twitchのコンテンツモデレーションの課題は、危険なストリームが視聴者に届き、リアルタイムで展開するときに害を及ぼす可能性がある、一種のるつぼです。 他のほとんどのプラットフォームは、事後コンテンツの検出に重点を置いています。何かが投稿、自動システムによってスキャン、または報告され、そのコンテンツは、アップしたままになるか、ダウンするか、ユーザーまたはプラットフォームに面した何らかの警告でタグ付けされます。
同社は安全へのアプローチを進化させ、コミュニティに耳を傾け、プラットフォーム上で安全なスペースや目に見える存在感を切り開くのに長い間苦労してきたブラックやLGBTQストリーマーのような疎外されたコミュニティのニーズについて瞑想しています。
3月、Color of Changeは、#TwitchDoBetterというキャンペーンで、黒人クリエイターを保護する取り組みを強化するよう会社に呼びかけました。 トランスジェンダーやより広範なLGBTQコミュニティは、悪意のあるユーザーがストリーマーのチャネルに標的を絞った嫌がらせを殺到するという憎悪の襲撃を終わらせるために、さらに多くのことを行うように会社に圧力をかけています。 Twitchは、将来の悪意のある人物を阻止するために自動化された憎悪キャンペーンを調整したとして、昨年末に2人のユーザーを訴えました。
最終的には、均等に実施されるスマートポリシーと、モデレーターが自由に使用できるツールキットの改善により、訴訟よりも日常的な影響が大きくなる可能性がありますが、防御の層が増えても問題はありません。
「ターゲットを絞った嫌がらせのような問題については、インターネット上のどこでも解決されていません」とハフマン氏は述べています。 「そして、それが非インターネットの世界にあるように、それは永遠の問題です—そしてそれは唯一の解決策を持っているものではありません。
「私たちがここでやろうとしているのは、高度にカスタマイズ可能な非常に堅牢なツールのセットを構築し、それらを作成者とそのモデレーターである、彼らのニーズを最もよく知っている人々の手に渡すことです。特定のニーズに合わせてツールスイートを調整できるようにします。」