その理由についての 1 つの理論は、最近、ノンバイナリーの褐色人種がマスコミで注目されるようになった可能性があるということです。つまり、彼らの画像は、AI モデルがトレーニングに使用するデータ セットに含まれるということです、とジャーナイトは言います。
Stable Diffusion を開発した OpenAI と Stability.AI は、攻撃的な画像を生成する可能性が高いと思われる特定のプロンプトをブロックするなど、システムに根付いたバイアスを軽減するための修正を導入したと述べています。 ただし、Hugging Face のこれらの新しいツールは、これらの修正がいかに限定的であるかを示しています。
Stability.AI の広報担当者は、同社が「さまざまな国や文化に固有のデータ セット」でモデルをトレーニングしていると語り、これは「一般的なデータ セットの過剰表現によって引き起こされるバイアスを軽減するのに役立つ」はずだと付け加えました。
OpenAI の広報担当者は、ツールについて具体的にコメントしていませんが、 ブログ投稿 同社がDALL-E 2にさまざまな技術を追加して、偏見や性的および暴力的な画像を除外する方法を説明しています.
これらの AI モデルがより広く採用され、よりリアルな画像を生成するようになるにつれて、バイアスはより差し迫った問題になりつつあります。 それらは、次のような多数の製品ですでに展開されています。 ストックフォト. ルッチョーニは、モデルが有害な偏見を大規模に強化する危険性があることを心配している. 彼女と彼女のチームが作成したツールが、画像生成 AI システムの透明性を高め、偏りを少なくすることの重要性を強調することを願っています。
問題の一部は、これらのモデルが主に米国中心のデータに基づいてトレーニングされていることです。つまり、ほとんどが米国の関連性、偏見、価値観、文化を反映していることを意味していると、ワシントン大学の准教授である Aylin Caliskan は述べています。 AIシステムにおけるバイアスの研究 であり、この研究には関与していません。
「最終的に起こっているのは、このオンラインのアメリカ文化の拇印です…それは世界中で永続しています」と Caliskan 氏は言います。
Caliskan 氏は、Hugging Face のツールは、AI 開発者が AI モデルのバイアスをよりよく理解し、減らすのに役立つと述べています。 「これらの例を直接見れば、これらの偏見の重要性をよりよく理解できると思います」と彼女は言います。