今日の中国では、ソーシャル メディア企業は通常、 センシティブな言葉の独自のリスト、政府の指示と独自の運用上の決定の両方から構築されました。 これは、ERNIE-ViLG が使用するフィルターが、Tencent が所有する WeChat や Sina Corporation が運営する Weibo が使用するフィルターとは異なる可能性があることを意味します。 これらのプラットフォームの一部は、 体系的にテストされた トロントを拠点とする研究グループ Citizen Lab によるものです。
中国系オーストラリア人の政治風刺漫画家である Badiucao (身元を保護するためにアートワークに別名を使用している) は、ERNIE-ViLG の検閲を最初に発見したユーザーの 1 人でした。 彼の作品の多くは、中国政府やその政治指導者を直接的に批判しているため、これらは彼がモデルに取り入れた最初のプロンプトの一部でした. 「もちろん、意図的にその生態系も調査していました。 これは新しい領域なので、検閲がそれに追いついたかどうか知りたいです」と Badiucao 氏は言います。 “しかし [the result] かなり残念です。」
芸術家として、バディウカオは、DALL-E 2 のアプローチを含め、これらの AI のいかなる形態の節度にも同意しません。彼は、自分の芸術で何が受け入れられるかを決定するのは自分自身であるべきだと信じているからです。 それでも、彼は道徳的な懸念による検閲を政治的理由による検閲と混同すべきではないと警告している. 「AIが、一般的に合意された道徳基準に基づいて生成できないものを判断する場合と、政府が第三者として介入し、国や中央政府に害を及ぼすため、これを行うことはできないと言う場合は異なります。」彼は言います。
検閲と節度の明確な境界線を特定することの難しさは、文化と法制度の違いの結果でもあると、Hugging Face の主任倫理学者である Giada Pistilli 氏は述べています。 たとえば、文化が異なれば、同じ画像でも異なる解釈がされる場合があります。 「宗教的なシンボルに関しては、フランスでは公の場で何も許可されていません。それが彼らの世俗主義の表現です」とピスティリは言います。 「米国に行くと、世俗主義とは、すべての宗教的シンボルと同様に、すべてが許可されることを意味します。」 中国政府は1月、 新しい規則を提案した ERNIE-ViLG のような AI を対象とする、「国家安全保障と社会の安定を危険にさらす」AI 生成コンテンツの禁止。
ERNIE-ViLG のケースで役立つのは、開発者がモデレーションの決定を説明する文書を公開することだと Pistilli 氏は言います。 彼らはそれが間違っていると信じているからやっているのですか? 私たちの議論や選択を説明するのに常に役立ちます。」
組み込みの検閲にもかかわらず、ERNIE-ViLG は大規模なテキストから画像への AI の開発において依然として重要な役割を果たします。 特定の言語データ セットでトレーニングされた AI モデルの出現は、英語ベースの主流モデルの制限の一部を補います。 これは、中国語を理解し、それに応じて正確な画像を生成できる AI を必要とするユーザーに特に役立ちます。
中国のソーシャル メディア プラットフォームが厳しい検閲にもかかわらず繁栄してきたように、ERNIE-ViLG やその他の中国の AI モデルもいずれ同じことを経験する可能性があります。