サンディーニ・アガルワル: 次のステップはたくさんあります。 ChatGPT がバイラルになったことで、私たちが存在することを知っていた多くの問題が実際に発生し、重大になっていると確信しています。これらの問題は、できるだけ早く解決したいと考えています。 同様に、モデルがまだ非常に偏っていることもわかっています。 はい、ChatGPT は不適切なリクエストを拒否するのが得意ですが、拒否したいものを拒否しないようにするプロンプトを作成するのも非常に簡単です。
リアム・フェダス: ユーザーからの多様で創造的なアプリケーションを見るのはわくわくしますが、私たちは常に改善すべき領域に焦点を当てています. 私たちは、展開、フィードバックの取得、改良という反復プロセスを通じて、最も整合性のとれた有能なテクノロジを生み出すことができると考えています。 テクノロジーが進化するにつれて、必然的に新しい問題が発生します。
サンディーニ・アガルワル: ローンチから数週間後、私たちは人々が見つけた最もひどい例、人々が実際に見た最悪のものをいくつか調べました. それぞれを評価し、どのように修正すべきかについて話し合いました。
ヤン・ライケ: Twitterで話題になることもありますが、実際に静かに手を差し伸べる人もいます.
サンディーニ・アガルワル: 私たちが見つけたものの多くは脱獄であり、これは間違いなく修正する必要がある問題です. しかし、モデルに何か悪いことを言わせるには、ユーザーがこれらの複雑な方法を試す必要があるため、これが完全に見逃されたものでも、非常に驚くべきものでもありませんでした。 それでも、それは私たちが現在積極的に取り組んでいるものです. ジェイルブレイクが見つかったら、トレーニング データとテスト データに追加します。 私たちが見ているすべてのデータは、将来のモデルにフィードされます。
ヤン・ライケ: より良いモデルができるたびに、それを公開してテストしたいと考えています。 私たちは、標的を絞った敵対的トレーニングによってジェイルブレイクの状況を大幅に改善できると非常に楽観的です。 これらの問題が完全に解消されるかどうかは明らかではありませんが、多くの脱獄をより困難にすることができると考えています。 繰り返しますが、リリース前にジェイルブレイクが可能であることを知らなかったわけではありません. これらのシステムを配備すると、実際の安全性の問題がどうなるかを実際に予測することは非常に難しいと思います. そのため、人々がシステムを何に使用しているかを監視し、何が起こっているかを確認し、それに対応することに重点を置いています。 これは、安全上の問題が予想される場合に、積極的に軽減すべきではないということではありません。 しかし、そうです、システムが現実の世界に到達したときに実際に起こることすべてを予測することは非常に困難です.
1 月、Microsoft は Bing Chat を公開しました。これは、OpenAI の公式に未発表の GPT-4 のバージョンであると多くの人が想定している検索チャットボットです。 (OpenAI は次のように述べています。「Bing は、Microsoft が検索専用にカスタマイズした次世代モデルの 1 つを利用しています。これには、ChatGPT および GPT-3.5 からの進歩が組み込まれています。」)基礎となるモデルの構築を任された人々のための新しい課題。