今年は、 オンデマンドで画像やテキストを作成できる強力なジェネレーティブ AI システムの導入が見られました。
同時に、規制当局も動いています。 ヨーロッパは、リスクの高い AI システムに厳しい規則を課すことを目的とした AI 規制 (AI 法) を最終決定している最中です。 カナダ、 イギリス、 アメリカ、および中国はすべて、影響力の大きい AI を規制する独自のアプローチを導入しています。 しかし、汎用 AI はコア フォーカスではなく、後付けのようです。 2021 年 4 月に欧州の新しい規制規則が提案されたとき、ジェネレーティブ AI を含む汎用の基本モデルについては 1 つも言及されていませんでした。 それからわずか 1 年半で、AI の未来に対する私たちの理解は根本的に変わりました。 これらの提案から今日の基本モデルを不当に除外することは、AI 規制を紙の虎に変えることになり、強力に見えますが、基本的権利を保護することはできません。
ChatGPTが作った AI のパラダイム シフトは具体的です。 現在、GPT-3、DALL-E、Stable Diffusion、AlphaCode などのいくつかのモデルが、ほぼすべての AI ベースのシステムの基盤になりつつあります。 AI スタートアップは、これらの基本モデルのパラメーターを調整して、特定のタスクにより適したものにすることができます。 このように、基本モデルは、マーケティング、販売、顧客サービス、ソフトウェア開発、デザイン、ゲーム、教育、法律など、さまざまな分野の多数のダウンストリーム アプリケーションに供給することができます。
基本モデルは、新しいアプリケーションやビジネス モデルを作成するために使用できますが、誤った情報を広めたり、高品質のスパムを自動化したり、マルウェアを作成したり、著作権で保護されたコンテンツや発明を盗用したりするための強力な方法にもなります。 基本モデルにはバイアスが含まれており、固定観念や偏見のあるコンテンツを生成することが証明されています。 これらのモデルは 過激派コンテンツを正確にエミュレートする 個人を過激派のイデオロギーに過激化するために使用される可能性があります。 彼らはする能力を持っています 欺く 説得力のある虚偽の情報を提示します。 心配なことに、これらのモデルの潜在的な欠陥は、後続のすべてのモデルに引き継がれ、意図的に管理されていない場合、広範な問題につながる可能性があります.
「多数の手」の問題は、複数のアクターによって引き起こされた結果に道徳的責任を帰するという課題を指し、それは 説明責任の侵食 アルゴリズム社会に関しては。 基本モデルが何百ものダウンストリーム アプリケーションにフィードする新しい AI サプライ チェーンの説明責任は、エンド ツー エンドの透明性に基づいて構築する必要があります。 具体的には、サプライ チェーンの透明性を 3 つのレベルで強化し、それらの間のフィードバック ループを確立する必要があります。
基本モデルの透明性 研究者とユーザーの下流サプライ チェーン全体がモデルの脆弱性とバイアスを調査して理解できるようにするために重要です。 モデルの開発者自身がこの必要性を認めています。 たとえば、DeepMind の 研究者は示唆している 大規模な言語モデルの害は、十分なレベルの説明可能性と解釈可能性に基づいて構築された幅広い利害関係者と協力して、害の効率的な検出、評価、および軽減を可能にすることによって対処する必要があります。 標準化された測定とベンチマークの方法論。 スタンフォード大学の HELM、が必要です。 これらのモデルは強力になりすぎており、研究者や独立監査人による評価なしでは運用できません。 規制当局は次のことを問いかける必要があります: モデルを適用すべき場所と禁止すべき場所を評価できるほど十分に理解していますか? 手元にある情報を使用して、リスクの高いダウンストリーム アプリケーションの安全性と堅牢性を適切に評価できますか?