Stable Diffusion のような画像ジェネレーターは、実際の写真のように見えるものや、人が想像できるほぼすべてのものを描いた手作りのイラストを作成できます。 これは、ウェブや画像データベースから取得した画像の膨大なコレクションのプロパティを関連するテキスト ラベルに関連付けることを学習するアルゴリズムのおかげです。 アルゴリズムは、画像へのランダム ノイズの追加と削除を含むプロセスで、テキスト プロンプトに一致するように新しい画像をレンダリングすることを学習します。
Steady Diffusion などのツールは Internet から収集した画像を使用するため、トレーニング データにはポルノ画像が含まれていることが多く、ソフトウェアは性的に露骨な画像を新たに生成できます。 もう 1 つの懸念は、このようなツールを使用して、実在の人物が何か妥協しているように見える画像を作成する可能性があることです。
2021 年 1 月に AI 研究会社 OpenAI が DALL-E と呼ばれるシステムを発表して以来、AI によって生成された画像の品質はこの 1 年半で急上昇しました。 テキスト プロンプトから画像を生成するモデルが普及し、2022 年 4 月には、より強力な後継モデルである DALL-E 2 が商用サービスとして利用できるようになりました。
OpenAI は当初から、イメージ ジェネレーターにアクセスできるユーザーを制限しており、要求できるものをフィルター処理するプロンプトを介してのみアクセスを提供しています。 と呼ばれる競合サービスについても同様です。 途中今年の 7 月にリリースされた は、広くアクセスできるようにすることで、AI によるアートの普及に貢献しました。
Secure Diffusion は、最初のオープン ソース AI アート ジェネレーターではありません。 オリジナルの DALL-E がリリースされて間もなく、ある開発者が DALL-E Mini と呼ばれるクローンを作成しました。これは誰でも利用できるようになり、すぐにミーム作成現象になりました。 DALL-E Mini、後にブランド名を変更 クレヨンには、DALL-E の公式バージョンと同様のガードレールがまだ含まれています。 クレマン・デランゲ最高経営責任者(CEO) ハグフェイスは、Stable Diffusion や Craiyon など、多くのオープンソース AI プロジェクトをホストしている企業であり、少数の大企業だけがテクノロジを制御するのは問題があると述べています。
「テクノロジーの長期的な発展を見ると、よりオープンで、より協調的で、より包括的であることが、実際には安全性の観点から優れています」と彼は言います。 閉鎖的な技術は、外部の専門家や一般の人々が理解するのがより困難であり、部外者が人種、性別、または年齢の偏見などの問題についてモデルを評価できればより良いと彼は言います。 さらに、クローズド テクノロジの上に構築できないものもあります。 結局、テクノロジーをオープンソース化するメリットはリスクを上回ると彼は言います。
Delangue 氏は、ソーシャル メディア企業が Secure Diffusion を使用して、偽情報の拡散に使用された AI 生成画像を特定する独自のツールを構築できる可能性があると指摘しています。 開発者は、Stable Diffusion を使用して作成された画像に目に見えない透かしを追加して追跡しやすくするシステムにも貢献し、モデルのトレーニング データで特定の画像を見つけて問題のある画像を削除できるようにするツールを構築したと彼は言います。
Unstable Diffusion に興味を持った後、Simpson-Edin は Unstable Diffusion Discord のモデレーターになりました。 サーバーは、未成年者のポルノと解釈される可能性のある画像を含む、特定の種類のコンテンツを投稿することを禁止しています. 「人々が自分のマシンで行っていることを管理することはできませんが、投稿される内容には非常に厳格です」と彼女は言います。 短期的には、AI アート制作の破壊的な影響を抑えるには、機械よりも人間に依存する可能性があります。