中国の規制当局は、ChatGPT などの AI モデルが国内で構築され、ユーザーの識別とセキュリティ レビューを要求し、「国家権力を転覆させ、社会主義体制の打倒を提唱し、国の分裂を扇動し、国家の団結を損なうコンテンツ」を禁止する制限的な規則を提案しています。 」
このルールは、中国のテクノロジー企業が、自然言語で会話し、驚くほど多くのタスクを実行できる多用途の AI システムである汎用の大規模言語モデルのバージョンを展開した直後に熱くなっています。 先月の SenseTime、Baidu、Alibaba のモデルの評判は、GPT-4 などにやや遅れをとっていることを示唆していますが、業界がこれらの機能の開発に等しく専念していることは明らかです。
残念なことに、アリババの Tongyi Qianwen モデルが登場した直後、同国の技術規制当局の 1 つである中国サイバースペース管理局は、関連するイノベーションと、それに伴う中国の AI 産業の野心を押しつぶす可能性のある制限を提案しました。
草案規則は英語で入手できません (上記の引用は フィナンシャル・タイムズの翻訳 Ars Technica でシンジケートされています) が、規制当局の Web サイトで見ることができます ここ. 第 4 条の最初の部分では、民族差別やテロリズムなどのさまざまな禁止事項とともに、政府の権力や権威を覆したり、国家の団結に疑問を投げかけたりするジェネレーティブ AI を禁止しています。
この種の包括的な道徳条項は中国では一般的ですが、ジェネレーティブ AI だけが遵守できない種類の制限です。 最も注意深く訓練され、調整された LLM でさえ、だまされてあらゆる種類の好ましくないことを言うことができるようです。 中国の検閲官がこれが法律に準拠しているかどうかを判断するかどうかは、多かれ少なかれ完全に彼ら次第であり、そのようなプロジェクトに深刻なリソースを費やす可能性をいくらか不安にさせています.
もちろん、中国の産業の多くは同様に中断された短剣の下に存在し、中国の規制当局は気まぐれですが、政府が長年にわたって研究開発を支えてきた成果を捨てるほど愚かではありません. 他のコンテンツ制限法とは異なり、これは政府が影響力を行使するためのイチジクの葉と鉄壁の言い訳として機能する可能性が高く、全面的な禁止ではありません.
どちらかといえば、そこでの AI 開発を遅らせる可能性があるのは他の要件です。
CAC のドラフト規則では、プロバイダーがモデルのトレーニング データに対する責任と責任を負うことが求められています。 サービスのユーザーは実在の人物であることを確認する必要があります。 個人情報と評判を尊重しなければ、規制当局はプロバイダーに責任があると判断する可能性があります。 生成されたコンテンツにはそのようにラベルを付ける必要があります。 および他の多くの制限。
確かに、これらの要件のいくつかは、責任ある AI 業界にとって賢明である、または重要であるとさえ考えられますが、実際には、それらの多くは信じられないほど困難であり、今日の企業や R&D の取り組みによって実装することはおそらく不可能です。 OpenAI が成功を収めた理由の 1 つは、ほぼ完全な規制の空白の中で機能していることです。 たとえば、会社がモデルのトレーニングに使用したテキストとメディアの権利所有者から許可を得ることが法律で義務付けられている場合、おそらく GPT-2 の構築を待っていることでしょう。
AI の新興企業や確立された企業でさえ、これらの規則に大規模に違反することを恐れて自信を持って中国で事業を展開できない場合、リソースを他の場所で使用する方がよいと判断する可能性があります。 この業界は急速に変化しているため、このような後退を取り戻すのは非常に困難です。
フィナンシャル・タイムズ アリババの最高経営責任者の言葉、ダニエル・チャンは、「今から10年から20年後、振り返ってみると、私たちは皆同じスタートラインに立っていることに気付くでしょう」と述べています。 それはほぼ間違いなく真実であり、同様の観点から、規制がどのようにイノベーションを抑制したか、またはおそらく規制が停滞する独占をどのように防ぎ、組織化された大量のデータ盗難から人々を保護したかを理解することができます.
草案の規則は、来月、(明らかに中国の関係者による)コメントのために公開されており、その後、改訂される場合とされない場合があり、今年後半に発効する予定です。