などの多くのオープンソース プロジェクト ラングチェーン と ラマインデックス また、大規模な言語モデルによって提供される機能を使用してアプリケーションを構築する方法も模索しています。 OpenAI のプラグインのリリースは、これらの取り組みを台無しにする恐れがある、と Guo は言います。
プラグインは、複雑な AI モデルを悩ませるリスクをもたらす可能性もあります。 ワシントン大学の言語学教授である Emily Bender 氏によると、ChatGPT のプラグイン レッド チーム メンバーは、「詐欺メールやスパム メールを送信したり、安全上の制限を回避したり、プラグインに送信された情報を悪用したりする」ことができることを発見しました。 「自動化されたシステムが世界で行動を起こせるようにすることは、私たちが下す選択です」とベンダーは付け加えます。
非営利団体である Center for AI Safety のディレクターである Dan Hendrycks は、Google、Microsoft、OpenAI などの企業が、プラグインによって言語モデルがより危険にさらされると考えています。 積極的なロビー活動 AI 法による責任の制限。 彼は、ChatGPT プラグインのリリースを悪い前例と呼び、大規模な言語モデルの他のメーカーが同様の道をたどる可能性があるのではないかと疑っています。
現在、プラグインの選択肢は限られているかもしれませんが、競争によって OpenAI がその選択肢を拡大する可能性があります。 Hendrycks は、ChatGPT プラグインと、Amazon の Alexa 音声アシスタントなど、会話型 AI を中心に開発者のエコシステムを成長させるためのテクノロジ企業による以前の取り組みとの違いを見ています。
たとえば、GPT-4 は Linux コマンドを実行できます。また、GPT-4 のレッドチーム プロセスでは、モデルが生物兵器の作成方法、爆弾の合成方法、ダーク Web でのランサムウェアの購入方法を説明できることがわかりました。 Hendrycks は、ChatGPT プラグインに触発された拡張機能により、スピア フィッシングやフィッシング メールなどのタスクがはるかに簡単になるのではないかと考えています。
テキストの生成からユーザーに代わってアクションを実行するようになると、言語モデルがアクションを実行するのをこれまで妨げてきたエア ギャップが侵食されます。 「モデルがジェイルブレイクされる可能性があることはわかっています。現在、モデルをインターネットに接続して、潜在的にアクションを実行できるようにしています」と Hendrycks 氏は言います。 「ChatGPT が自発的に爆弾などを作成すると言っているわけではありませんが、このようなことを行うのがはるかに簡単になります。」
言語モデルのプラグインの問題の 1 つは、こうしたシステムのジェイルブレイクを容易にする可能性があることだと、サンフランシスコ大学応用データ倫理センターの所長代理である Ali Alkhatib 氏は述べています。 自然言語を使用して AI と対話するため、何百万もの未発見の脆弱性が存在する可能性があります。 Alkhatib は、Microsoft や OpenAI などの企業が、一般的な人工知能への進歩に関する最近の主張で世間の認識を混乱させているときに、プラグインが広範囲に影響を与えると考えています。
「物事は急速に進んでおり、危険であるだけでなく、実際に多くの人々に害を及ぼしています」と彼は言い、新しい AI システムの使用に興奮している企業がプラグインをカウンセリング サービスなどの機密性の高いコンテキストに急いで使用する可能性があることを懸念しています。
ChatGPT のような AI プログラムに新しい機能を追加すると、意図しない結果が生じる可能性もあります。 一般的にインテリジェント、AI を活用したエージェントに取り組んでいる AI 企業。 たとえば、チャットボットは高額なフライトを予約したり、スパムの配信に使用されたりする可能性があり、Qiu 氏は、そのような不正行為の責任者を特定する必要があると述べています。
しかし、Qiu はまた、インターネットに接続された AI プログラムの有用性は、テクノロジーが止められないことを意味するとも付け加えています。 「今後数か月から数年で、インターネットの大部分が大規模な言語モデルに接続されることが予想されます」と Qiu 氏は言います。