Stable Diffusion はオープン ソースであるため、誰でも分析および調査できます。 Imagen は閉鎖されていますが、Google は研究者にアクセスを許可しました。 Singh 氏は、この研究は、研究者が分析のためにこれらのモデルにアクセスできるようにすることがいかに重要であるかを示す好例であると述べ、企業は OpenAI の ChatGPT などの他の AI モデルに対しても同様に透明性を持つべきだと主張しています。
ただし、結果は印象的ですが、いくつかの注意点があります。 研究者が抽出した画像は、トレーニング データに複数回出現したか、データ セット内の他の画像と比較して非常に珍しいものでした、とグループの一員であった ETH チューリッヒのコンピューター サイエンスの助教授である Florian Tramèr は述べています。
変わった外見や変わった名前を持つ人は、記憶されるリスクが高い、と Tramèr は言います。
Webster によると、研究者は AI モデルから個人の写真の正確なコピーを比較的少数しか抽出できませんでした。
しかし、それはまだ心配事であり、Tramèr 氏は次のように述べています。
「それらがゼロよりも大きいという事実が重要です」と彼は付け加えます。