Anthropic が話しやすいと宣伝している AI チャットボットである Claude が、ついにより多くの人に試してもらえるようになりました。 同社が発表した 米国と英国の誰もが会話型ボットの新バージョンである Claude 2 をテストできるようになりました。 ウェブサイトから。
この公開により、Claude は ChatGPT、Bing、Bard の仲間入りを果たし、これらはすべて多数の国のユーザーが利用できるようになります。 これは、私たち全員が遊べる AI チャットボットがもう 1 つあることを意味しますが、Anthropic 氏は、「クロードを、自然言語で指示されて多くのタスクを手助けしてくれる、フレンドリーで熱心な同僚またはパーソナル アシスタントと考えてください」と述べています。
Anthropic も「役に立つ、無害、そして誠実」であると評するクロードは、要約を作成したり、コードを書いたり、テキストを翻訳したりすることができます。 これは Google の Bard や Microsoft の Bing チャットボットによく似ているように聞こえるかもしれませんが、 Anthropic は構造が違うと言う それらのボットよりも。 他のものよりも会話的な口調があり、おそらくユーモアのセンスさえ持っています。 (それは自分でテストする必要があります。) また、「憲法」と呼ばれる一連の原則に従っており、人間のモデレーターに頼るのではなく、自らの対応を修正するために使用されます。
Google が支援する Anthropic は当初、3 月に Claude をリリースしましたが、このチャットボットは企業がリクエストに応じて、または Slack のアプリとしてのみ利用可能でした。 Claude 2 では、Anthropic はチャットボットの既存の機能に基づいて多くの改良を加えています。 クロード 2 は、より長い応答を作成する能力に加えて、以前のクロード モデルと比較して、数学、コーディング、推論のスキルもわずかに向上しています。
一例として、Anthropic によれば、クロード 2 は司法試験の多肢選択セクションで 76.5 パーセントの得点を獲得したが、古いクロード 1.3 は 73 パーセントを獲得したという。 Anthropic によると、クロード 2 は「無害な反応を返す」という点でも 2 倍優れています。 つまり、Anthropic はジェイルブレイクの可能性を排除していませんが、以前のモデルと比較して、操作中に有害なコンテンツを吐き出す可能性は低くなります。
ただし、Bard や Bing とは異なり、Claude 2 は依然としてインターネットに接続されておらず、2022 年 12 月までのデータに基づいてトレーニングされています。これは、現在の出来事に関する最新の情報を明らかにすることができないことを意味します。 Threads が何なのかさえ知りません!)、そのデータセットは、無料版の ChatGPT が使用するものよりもまだ新しいです。 (ChatGPT の知識は 2021 年以降に途絶えます。) Anthropic の代表である Sandy Banerjee 氏は次のように述べています。 ザ・ヴァージ 最近公開された Web サイトまたは Web ページをクロードにフィードすることは可能であり、それに関するクエリに応答できるはずです。
さらに、Anthropic は最近、Claude のコンテキスト ウィンドウを約 75,000 単語に拡張しました。 つまり、ボットに数十のページをアップロードしたり、小説全体をアップロードしてボットに解析させることができます。 したがって、複雑で非常に長い研究論文の簡単な要約が必要な場合は、Claude があなたのボットです。 他のモデルの制限ははるかに小さく、ChatGPT は最大約 3,000 ワードに設定されています。 Anthropic が一般公開されたので、これを試して、Bing で見たように、コンテキスト ウィンドウを長くしてもこの「無害な」ボットを軌道から外すのに十分かどうかを確認するのを楽しみにしています。