「サイバーフラッシング」と戦うためのより大きな取り組みの一環として、出会い系アプリのバンブルは オープンソース 未承諾のスケベな画像を検出する AI ツール。 2019 年に初めて登場した Private Detector (その名前を理解するために少し時間を取ってみましょう) は、Bumble アプリを介して送信されたヌードをぼかし、受信側のユーザーが画像を開くかどうかを選択できるようにします。
「私たちのアプリでわいせつな画像を送信するユーザーの数は幸運にもわずか 0.1% とごくわずかですが、私たちの規模により、わいせつな画像とわいせつでない画像の両方の業界最高のデータセットを収集することができます。タスクで可能な限り最高のパフォーマンスを発揮します」と同社はプレスリリースに書いています.
で利用可能になりました ギットハブ、洗練されたバージョンの AI を商用利用、配布、および変更することができます。 ヌード画像を検出するモデルを開発するのは最先端のテクノロジではありませんが、小規模な企業が独自に開発する時間はないでしょう。 したがって、他の出会い系アプリ (または人々がペニスの写真を送信する可能性のある製品、別名インターネット全体?) は、このテクノロジを自社の製品に適切に統合し、望ましくないわいせつなコンテンツからユーザーを保護するのに役立ちます.
Private Detector をリリースして以来、Bumble は米国の国会議員と協力して、未承諾のヌードの送信に対する法的措置を講じてきました。
「バンブルの製品エコシステムを超えてこの問題に対処し、インターネットを誰にとってもより安全で親切な場所にするために、迷惑なわいせつな写真(サイバーフラッシングとも呼ばれる)の問題に対処する方法について、より大きな議論を行う必要があります」とバンブルは付け加えました.
Bumble がこの AI を最初に導入したとき、同社は 98% の精度があると主張しました。