OpenAI のチーフ サイエンティストである Ilya Sutskever 氏は、発表の 1 時間後にビデオ通話で GPT-4 チームと話をしたとき、「これについては、現時点でコメントすることはできません」と述べています。 「そこはかなり競争力があります。」
GPT-4 へのアクセスは、待機リストにサインアップしたユーザーと、有料のプレミアム ChatGPT Plus のサブスクライバーが、限られたテキストのみの容量で利用できるようになります。
GPT-4 はマルチモーダルな大規模言語モデルです。つまり、テキストと画像の両方に対応できます。 冷蔵庫の中身の写真を見せて、何が作れるか尋ねると、GPT-4 は写真の材料を使ったレシピを考え出そうとします。
アレン人工知能研究所のオレン・エツィオーニは、次のように述べています。 「GPT-4 は現在、すべての基礎モデルが評価される標準となっています。」
「優れたマルチモーダル モデルは、過去 2 年間、多くの大規模なテック ラボの聖杯でした」と、オープンソースの大規模言語モデル BLOOM を開発した AI スタートアップ、Hugging Face の共同設立者である Thomas Wolf 氏は述べています。 「しかし、それはとらえどころのないままです。」
理論的には、テキストと画像を組み合わせることで、マルチモーダル モデルが世界をよりよく理解できるようになる可能性があります。 「空間推論など、言語モデルの従来の弱点に取り組むことができるかもしれません」と Wolf は言います。
それが GPT-4 に当てはまるかどうかはまだ明らかではありません。 OpenAI の新しいモデルは、いくつかの基本的な推論では ChatGPT よりも優れているように見え、同じ文字で始まる単語のテキスト ブロックを要約するなどの単純なパズルを解決します。 私のデモでは、g で始まる単語を使用して、OpenAI の Web サイトからの発表の宣伝文句を要約する GPT-4 を見せられました。 ガードレール、ガイダンス、獲得した利益。 巨大で、画期的で、世界的に才能があります。」 別のデモでは、GPT-4 が税金に関する文書を受け取り、回答の理由を挙げて質問に答えました。