私たちは最近、Lensa AI がだまされて NSFW 画像を作成できることを発見しました。 TechCrunch が Prisma チームに調査結果を知らせると、同社の CEO は調査結果を返信しました。
Prisma Lab の CEO で共同設立者の Andrey Usoltsev 氏は、この記事で観察された動作は、AI が意図的に NSFW コンテンツを作成するように誘発された場合にのみ発生し、これは AI の利用規約に違反していると指摘しています。
“私たちの 利用規約(第6条) と Stability AI 利用規約 (迅速なガイドライン) 有害または嫌がらせ行為に関与するためのツールの使用を明示的に禁止します。 道 [TechCrunch’s] 実験は構造化されており、そのような作品が偶然に生み出されることはないと指摘しています。 画像は、アプリ上での意図的な不正行為の結果です」と、Usoltsev は TechCrunch との電子メール インタビューで述べています。 「米国と英国の両方が、同意なしに生成された露骨なコンテンツや画像を共有する行為を犯罪と見なしているため、そのようなコンテンツの生成と幅広い使用は法的措置を講じる可能性があります. 画像の要件を明確に規定するガイドラインを提供しており、明示的な描写の使用は固く禁じられています。 アプリのユーザーは、可能な限り最高の結果を得るためにガイドラインに従うことを期待しています。」
Usoltsev はまた、Lensa が最終的に NSFW 画像を生成することになった理由についていくつかの追加のコンテキストを共有し、これは基盤となるテクノロジである Stability AI がサンドボックス環境でのみ、指示されたとおりに実行した結果であると説明しました。
「安定拡散ニューラル ネットワークは、アバター生成プロセスの背後で実行されています」と Usoltsev 氏は言います。 「モデルの作成者である Stability AI は、インターネット全体からのフィルタリングされていないデータの大規模なセットでモデルをトレーニングしました。 私たちも安定性 AI も、表現バイアスを意識的に適用することはできませんでした。 より正確に言えば、オンラインで入手された人為的なフィルタリングされていないデータは、モデルに人類の既存の偏見をもたらしました。 作成者は、社会的偏見の可能性を認めています。 私たちもそうです。」
Stability AI モデルには、2022 年 11 月末以降、ユーザーがヌードやポルノ画像を生成するのをより困難にするための Stable Diffusion モデル ソフトウェアの適応が含まれており、Prisma AI の創設者は、これらの適応は知識のあるユーザーによって裏切られる可能性があると私に保証します。
「私たちはNSFWフィルターを構築中です。 そのように検出された画像を効果的にぼかします。」 Andrey Usoltsev 氏、Prisma Lab の CEO
「この製品は未成年者向けではないことを明記し、潜在的なコンテンツについてユーザーに警告します。 また、宣伝資料でそのような画像を使用することも控えています」とUsoltsev氏は語った. 「Lensa の作業を強化するために、NSFW フィルターを構築中です。 そのように検出された画像を効果的にぼかします。 そのような画像を開いたり保存したりする場合は、ユーザーの独自の裁量に任されます。」
Prisma Labs チームは、ここには 2 つの問題があると指摘しています。 明示的な画像をアップロードすることにより、ユーザーはモデルの特定の個別のコピーをトレーニングします。会社は、生成が完了すると削除されると主張しており、これらの画像を使用してモデルをさらにトレーニングすることはできません. 言い換えれば、より多くのポルノを作成するためにポルノをアップロードする場合、それはあなた次第です。
「近い将来、AI の使用と規制に関する幅広い議論が必要であることは間違いありません。私たちはその一部になりたいと思っています。 また、Magic Avatars 機能の最高の体験を可能にするために必要なすべてのガイダンスと適切な警告を提供します」と Usoltsev 氏は言います。 「しかし、個人が有害な行動に関与することを決意している場合、どのツールも武器になる可能性があります。」
同社は、いわゆる「ディープフェイク」のヌード画像の作成を回避する計画があるかどうかを明らかにしていません。
その間、同意を得て生成された自分自身の写真をこれまで以上に見栄えよく楽しむことができ、他人のポルノを作成する前に同意を得るように他の人に勧めることができると思います.