赤毛の女性 月に立ち、顔を隠している。 彼女の裸の体は、ホルモンのティーンエイジャーの寝室の壁にあるポスターに属しているように見えます.
テキスト プロンプトを画像に変換する Stable Diffusion などの AI を利用したシステムは、ブランドやアーティストがコンセプト イメージを作成するために使用しており、受賞歴があります ( 物議を醸す) プリントと本格的なマーケティング キャンペーン。
しかし、一部のユーザーは、システムの陰気な側面を探求することを目的としており、別の種類のユース ケースであるポルノをテストしています。
AIポルノは、あなたが期待するほど不安で不完全です(月の赤毛は、余分な腕フェチを持つ誰かによって生成された可能性は低いです). しかし、技術が向上し続けるにつれて、AI の倫理学者とセックス ワーカーの両方にとって困難な問題が生じるでしょう。
最新の画像生成システムを使用して作成されたポルノは、4chan のメンバーがオープンソースの Stable Diffusion システムを正式リリース前にリークした後、今月初めにディスカッション ボード 4chan と Reddit を介して最初に現場に到着しました。 そして先週、高忠実度の AI ポルノ生成に特化した最初の Web サイトの 1 つと思われるものが立ち上げられました。
Porn Pen と呼ばれるこの Web サイトでは、ユーザーは、「ベイブ」、「ランジェリー モデル」、「ぽっちゃり」、民族 (「ロシア」や「ラティーナ」) と背景 (「ベッドルーム」、「シャワー」、「月」などのワイルドカードなど)。 ボタンは、正面、背面、または側面からモデルをキャプチャし、生成された写真の外観を変更します (例: 「フィルム写真」、「ミラー セルフィー」)。 ただし、ユーザーが作成した画像のフィードでは、一部の鏡は実際には人物を反映していないため、鏡のセルフィーにはバグがあるに違いありませんが、もちろん、これらのモデルはまったく人物ではありません. ポルノペンは「この人物は存在しません、」それはNSFWです。
Y Combinator の Hacker News について フォーラム、作成者であると称するユーザーは、ポルノペンを最先端のテキストから画像へのモデルを使用した「実験」と表現しています。 「有害な画像が生成されるのを避けるために、カスタム テキストを指定する機能を明示的に削除しました」と彼らは書いています。 「プロンプトエンジニアリングアルゴリズムがさらに微調整されると、新しいタグが追加されます。」 作成者は、TechCrunch のコメント要求に応答しませんでした。
しかし、Porn Pen は、画像生成システムのバイアスや、それらが生じたデータのソースなど、多くの倫理的問題を提起しています。 技術的な影響を超えて、カスタマイズされたポルノを作成するための新しい技術が(それが普及すると仮定して)、同じことで生計を立てているアダルトコンテンツの作成者を傷つける可能性があるかどうか疑問に思う.
「これが存在するようになるのは、ある程度必然だと思います。 [OpenAI’s] DALL-Eはそうしました」と、シアトル大学の博士号候補であるOs KeyesはTechCrunchに電子メールで語った。 「しかし、オプションとデフォルトの両方が非常に異性愛規範的で男性的な視線をどのように再現するかは、依然として気のめいるようです。」
セックス ワーカーであり、コンテンツのモデレーションを含むケースに取り組むピア オーガナイザーである Ashley は、Porn Pen によって生成されたコンテンツは、現状ではセックス ワーカーにとって脅威ではないと考えています。
「世の中には数え切れないほどのメディアがあります」とアシュリーは言いました。彼女は自分の姓を公表することを望んでいませんでした。彼女は仕事で嫌がらせを受けるのを恐れていたからです 「しかし、人々は最高のメディアを作るだけでなく、アクセスしやすく興味深い人物であることによっても差別化を図っています。 AI がそれを置き換えるには、長い時間がかかるでしょう。」
OnlyFans や ManyVids などの既存の収益化可能なポルノ サイトでは、アダルト クリエーターは年齢と身元を確認して、同意したアダルトであることを会社が認識できるようにする必要があります。 もちろん、AI で生成されたポルノ モデルはこれを行うことはできません。それらは本物ではないからです。
しかし、アシュリーは、ポルノサイトが AI ポルノを取り締まれば、SESTA/FOSTA などの法律による規制強化に直面しているセックスワーカーに対する規制が厳しくなる可能性があることを心配しています。 議会は、 セーフ セックス ワーカー研究法 2019年に、オンラインセックスワークをより困難にするこの法律の影響を調べるために。 この調査では、「コミュニティ組織は [had] 「オンラインプラットフォームへのアクセスによってもたらされる経済的安定」を失った後、「セックスワーカーのホームレスの増加」を報告しました。
「SESTA は児童の性的人身売買と闘うものとして売られましたが、年齢に関係のない売春に関する新しい刑法を作成しました」とアシュリーは言いました。
現在、世界中でディープフェイク ポルノに関連する法律はほとんどありません。 米国では、バージニア州とカリフォルニア州のみが、フェイクおよびディープフェイクのポルノ メディアの特定の使用を制限する規制を設けています。
Stable Diffusion などのシステムは、例によってテキストから画像を生成することを「学習」します。 コンテンツを示す注釈が付けられた何十億もの写真 (たとえば、「ダックスフンド、広角レンズ」というラベルの付いた犬の写真) を入力すると、システムは特定の単語やフレーズが特定の芸術スタイル、美学、場所などを指していることを学習します。 .
これは実際には比較的うまく機能します。 「ヴァン ゴッホのスタイルで描いた鳥の絵」のようなプロンプトは、鳥を描いたヴァン ゴッホ風のイメージを予想通り生み出します。 しかし、プロンプトが曖昧であったり、固定観念を参照したり、システムが慣れていない主題を扱ったりすると、さらに複雑になります。
たとえば、Porn Pen は、人がまったくいない画像を生成することがあります。おそらく、システムがプロンプトを理解できていないためです。 また、前述のように、物理的に表示される場合もあります。 ありそうもない 通常、余分な手足、異常な場所の乳首、ゆがんだ肉を持つモデル。
“定義により [these systems are] キーズ氏は、主流社会で受け入れられ、評価されている体を持つ人々を代表するつもりです. 「たとえば、結果的に女性の数が不釣り合いに多くなったとしても、私には驚くことではありません。」
Porn Penを支えている可能性が高いシステムの1つであるStable Diffusionは、 トレーニング データセット内の比較的少数の「NSFW」画像、Redditorsおよび4chanユーザーによる初期の実験では、有名人のポルノディープフェイクを生成する能力が非常に高いことが示されています(Porn Penには、おそらく偶然ではありませんが、「有名人」オプションがあります). また、オープン ソースであるため、Porn Pen の作成者が追加のヌード画像でシステムを微調整することを妨げるものは何もありません。
「生成することは間違いなく素晴らしいことではありません [porn] 既存の人の」とアシュリーは言いました。 「嫌がらせに使われる可能性がある」
ディープフェイク ポルノは、人々を脅したり嫌がらせをするために作成されることがよくあります。 これらの画像は、ほとんどの場合、対象者の同意なしに開発されています。 悪意. 2019年、調査会社は 感性AI オンラインのディープフェイク動画の 96% が同意のないポルノであることがわかりました。
Knives and Paintbrushes 集団の一員である AI 研究者の Mike Cook は、データセットには、セックス ワーカーを含む、このような方法で画像がトレーニングに使用されることに同意していない人々が含まれている可能性があると述べています。
“たくさんの [the people in the nudes in the training data] ポルノまたはポルノに関連するコンテンツを作成することで収入を得ている可能性があります」とクック氏は述べています。 「芸術家、ミュージシャン、ジャーナリストと同じように、これらの人々が生み出した作品は、将来生計を立てる能力を損なうシステムを作成するために使用されています。」
理論的には、ポルノ俳優はディープフェイク画像の作成者と戦うために、著作権保護、名誉毀損、さらには人権法を利用することもできます。 しかし、MIT テクノロジー レビュー ノートの一部として、収集 証拠 法的な議論を支持することは、大きな挑戦であることが判明する可能性があります.
より原始的な AI ツールが数年前にディープフェイク ポルノを広めたとき、Wired 調査 同意のないディープフェイク動画が、Pornhub などの主流のポルノ サイトで何百万回も再生されていることがわかりました。 他のディープフェイク作品は、Porn Pen に似たサイトに居場所を見つけました — Sensity のデータによると、上位 4 つのディープフェイク ポルノ Web サイトは 2018 年に 1 億 3,400 万回以上のビューを受け取りました。
「AI 画像合成は現在、広く普及している技術であり、誰もがこのユビキタスの影響に対して本当に準備ができているとは思いません」とクックは続けました。 「私の意見では、この技術の影響をほとんど考慮せずに、過去数年間、私たちは非常に遠くまで未知の世界に突入してきました。」
クックの言いたいことは、 人気 AI が生成したポルノのサイトは、パートナー契約、紹介、API を通じて昨年後半に拡大し、何百もの同意のないディープフェイクをホストするサービスが、支払いインフラストラクチャの禁止を乗り切ることができるようになりました。 そして2020年、研究者たちは 発見した 未成年の少女を含む 100,000 人以上の女性の虐待的なディープフェイク画像を生成した Telegram ボット。
「今後 10 年間で、テクノロジーと社会の境界の両方の限界を試す人がさらに増えると思います」とクック氏は述べています。 「私たちはこれに対する責任を受け入れ、彼らがしていることの影響について人々を教育するために努力しなければなりません。」