「これらの問題に本当に対処したいのであれば、真剣に取り組む必要があります」と Farid 氏は言います。 たとえば、PAI の一部である Amazon、Microsoft、Google、Apple が運営するクラウド サービス プロバイダーやアプリ ストアに、同意のない性的行為を意図してディープフェイク技術を使用することを人々に許可するサービスを禁止することを彼は望んでいます。画像。 AI で生成されたすべてのコンテンツの透かしも、任意ではなく義務化されるべきだと彼は言います。
欠けているもう 1 つの重要な点は、AI システム自体をより責任あるものにする方法です、とインテルの上級研究科学者であり、ジェネレーティブ AI の責任ある開発に関する同社の仕事を率いる Ilke Demir は言います。 これには、AI モデルがどのようにトレーニングされたか、どのデータが入力されたか、生成 AI モデルにバイアスがあるかどうかなどの詳細が含まれる可能性があります。
ガイドラインには、生成 AI モデルのデータセットに有毒なコンテンツが含まれないようにすることについては言及されていません。 デジタル著作権グループ Access Now のシニア ポリシー アナリストである Daniel Leufer 氏は、次のように述べています。
ガイドラインには、詐欺、嫌がらせ、偽情報など、これらの企業が防止したい害のリストが含まれています。 しかし、常に白人を作成するジェネレーティブ AI モデルも害を及ぼしており、それは現在リストされていません、と Demir は付け加えます。
Farid は、より根本的な問題を提起します。 企業は、このテクノロジーが深刻な害をもたらす可能性があることを認識し、それらを軽減する方法を提供しているのに、「なぜ彼らは『そもそもこれを行うべきか』という質問をしないのですか?」