AI 画像生成ツール Stable Diffusion のユーザーは、 ソフトウェアの更新 特定のアーティストのスタイルでNSFW出力と写真を生成する機能を「弱体化」させます。
ソフトウェアに資金を提供し、配布する会社である Stability AI は、Stable Diffusion バージョン 2 を発表しました。 今朝早く ヨーロッパ時間。 このアップデートでは、モデルの主要コンポーネントが再設計され、アップスケーリング (画像の解像度を上げる機能) やインペインティング (コンテキスト認識編集) などの特定の機能が改善されます。 ただし、変更により、Stable Diffusion が論争と批判の両方を引き付けた特定の種類の画像を生成することも難しくなります。 これらには、ヌードやポルノの出力、有名人の写真のようにリアルな写真、特定のアーティストのアートワークを模倣した画像が含まれます。
「彼らはモデルをナーフしました」
「彼らはモデルをナーフしました」 1 人のユーザーがコメントしました Stable Diffusion サブ reddit で。 「それはちょっと不愉快な驚きです」 別の人が言った ソフトウェアの公式 Discord サーバーで。
ユーザーは、Stable Diffusion のバージョン 2 に、Greg Rutkowski のスタイルで画像を生成するように依頼していることに注意しています。 高品質の画像を作成するための文字通りの省略形になります — 自分の作品に酷似したアートワークを作成しなくなりました。 (比較 これらは 2 画像など)。 「グレッグに何をしたの😔」 コメントした Discordの1人のユーザー。
Stable Diffusion への変更は注目に値します。このソフトウェアは非常に影響力があり、急速に変化するジェネレーティブ AI シーンで規範を設定するのに役立ちます。 OpenAI の DALL-E などのライバル モデルとは異なり、Stable Diffusion はオープン ソースです。 これにより、コミュニティはツールをすばやく改善し、開発者はツールを無料で製品に統合できます。 しかし、それはまた、Stable Diffusion の使用方法に対する制約が少なく、その結果、重大な批判を集めていることも意味します。 特に、Rutkowski のような多くのアーティストは、Stable Diffusion やその他の画像生成モデルが同意なしに自分のアートワークでトレーニングされ、自分のスタイルを再現できるようになったことに腹を立てています。 この種の AI を利用したコピーが合法かどうかは未解決の問題です。 専門家は、著作権で保護されたデータで AI モデルをトレーニングすることは合法である可能性が高いと述べていますが、特定のユースケースは法廷で争われる可能性があると述べています。
Stable Diffusion のユーザーは、このような潜在的な法的問題を軽減するために、モデルへの変更が Stability AI によって行われたと推測しています。 ただし、 ザ・バージ Stability AI の創設者である Emad Mostaque にプライベート チャットでこれが当てはまるかどうか尋ねたが、Mostaque は答えなかった。 Mostaque は確認しましたが、Stability AI はトレーニング データからアーティストの画像を削除していません (多くのユーザーが推測しているように)。 代わりに、アーティストをコピーするモデルの能力が低下したのは、ソフトウェアがデータをエンコードおよび取得する方法に変更が加えられた結果です。
「ここではアーティストの特定のフィルタリングは行われていません」とMostaque氏は語った。 ザ・バージ. (彼はまた、これらの変更の技術的基盤についても詳しく説明しました。 Discordに投稿されたメッセージ.)
ただし、Stable Diffusion のトレーニング データから削除されたのは、ヌードとポルノの画像です。 AI画像ジェネレーターはすでに生成に使用されています NSFW出力、写実的な写真とアニメ風の写真の両方を含みます。 ただし、これらのモデルを使用して、特定の個人に似た NSFW 画像 (同意のないポルノとして知られている) や児童虐待の画像を生成することもできます。
Stable Diffusion Version 2 の変更点について、ソフトウェアの公式 Discord である Mostaque で議論する ノート この後者の使用例が、NSFW コンテンツを除外する理由です。 「オープン モデルに子供と nsfw を含めることはできません」と Mostaque は言います (2 種類の画像を組み合わせて子供の性的虐待の素材を作成することができるため)。
1 ユーザー on Stable Diffusion のサブ reddit は、NSFW コンテンツの削除は「検閲」であり、「オープン ソース コミュニティの精神哲学に反する」ものであると述べました。 ユーザーは次のように述べています。 [sic] 限定/検閲モデルで。 ただし、Stable Diffusion のオープン ソースの性質により、ヌード トレーニング データが 簡単に追加できます V2.0 でアーティストや NSFW が不足していることに驚かないでください。お気に入りのセレブをすぐにネイキッドで作成できるようになります。 」
Stable Diffusion Version 2 への変更は一部のユーザーを悩ませましたが、他の多くの人は、既存の画像の深さに一致するコンテンツを作成するソフトウェアの新しい機能のように、より深い機能の可能性を称賛しました. 他の人は、変更により高品質の画像をすばやく作成することが難しくなったと述べましたが、コミュニティは将来のバージョンでこの機能を追加する可能性が高い. Discord の 1 人のユーザーとして 変更点をまとめました: 「これまでの経験では、2.0 はプロンプトの解釈と一貫性のある写真イメージの作成に優れています。 しかし、ルトコフスキーのおっぱいは作れません。
Mostaque 自身は、この新しいモデルを、誰でも好みの材料 (トレーニング データ) を追加できるピザ ベースと比較しました。 「良いモデルは誰でも使えるものであるべきです。何かを追加したい場合は追加してください」と彼は言いました。 Discordで言った.
Mostaque 氏はまた、Stable Diffusion の将来のバージョンでは、アーティストがオプトインまたはオプトアウトできるようにするトレーニング データセットを使用する予定であると述べました。 「基本モデルを改善し、コミュニティからのフィードバックを取り入れながら、非常に透明性を高めようとしています」と Mostaque 氏は語った。 ザ・バージ.
Stable Diffusion Version 2 の公開デモは、 ここにアクセス (ただし、ユーザーからの要求が高いため、モデルにアクセスできないか、速度が遅い場合があります)。