FBIは、 勧告 AI編集ツールの助けを借りて作成された偽のヌードを含む恐喝計画の「増加」について警告。
同庁は、今年4月の時点で、そのような「セクストーション」計画に関する報告の数が増加していると述べている。 悪意のある攻撃者は、ソーシャル メディア上で被害者の良性の画像を見つけ、AI を使用してそれらを編集し、リアルで露骨な性的コンテンツを作成します。
「その後、セクストーションや嫌がらせを目的として、悪意のある人物によって写真が被害者に直接送信される」と同庁は書いている。 「ひとたび拡散されると、被害者は、操作されたコンテンツの継続的な共有やインターネットからの削除を防ぐという重大な課題に直面する可能性があります。」
FBIによると、脅迫者は通常、被害者に本物のヌード画像を要求したり、何らかの支払いを要求したりするためにこのような素材を使用するという。 同局は、「この主な動機は、より違法なコンテンツ、金銭的利益、または他者へのいじめや嫌がらせを求める欲求である」と述べている。
同庁は国民に対し、自分の画像をオンラインで共有する際には「注意を払う」よう勧告しているが、これは従うのが難しいアドバイスだ。 ディープフェイクの作成に必要な画像やビデオは数枚だけであり、削除しない限り、誰もそのような恐喝計画から完全に安全になることはできません。 全て ウェブからの自分たちの画像。 それでも、ターゲットを個人的に知っている場合、実生活でも密かに写真を撮影することができます。
ヌードディープフェイクが初めてオンラインで広がり始めたのは 2017 年で、Reddit などのフォーラムのユーザーが新しい AI 研究手法を使用して女性有名人の露骨な性的コンテンツを作成し始めたときでした。 このコンテンツのオンライン拡散に対抗する試みがいくつかありましたが、ディープフェイクヌードを作成するツールやサイトは簡単にアクセスできます。
FBIは、このような恐喝計画は「いくつかの連邦刑法に違反する可能性がある」と指摘している。 このような同意のない偽画像の作成を犯罪とする世界的な法律も限られています。 たとえば、米国のバージニア州ではディープフェイクが「リベンジポルノ」の一種として非合法化されているが、英国では現在、次期オンライン安全法案でそのような画像の共有を違法にすることを計画している。