元 OpenAI の従業員によって共同設立されたスタートアップである Anthropic は、バイラルセンセーションの ChatGPT に対抗する何かを本日立ち上げました。
クロードと呼ばれる Anthropic の AI (チャットボット) は、ドキュメント全体の検索、要約、書き込みとコーディング、特定のトピックに関する質問への回答など、さまざまなタスクを実行するように指示できます。 これらの点では、OpenAI の ChatGPT に似ています。 しかし Anthropic は、Claude は「有害な出力を生成する可能性がはるかに低く」、「会話しやすく」、「操作しやすい」と主張しています。
「私たちはこう思います クロード Anthropic の広報担当者は TechCrunch に電子メールで語った。 「数か月間、モデルを提供するためのインフラストラクチャに投資しており、顧客の需要を満たすことができると確信しています。」
昨年末のクローズド ベータに続いて、Anthropic は Robin AI、AssemblyAI、Notion、Quora、DuckDuckGo などのローンチ パートナーと共に Claude を静かにテストしてきました。 今朝の時点で API を介して 2 つのバージョンが利用可能です。Claude と、Claude Instant と呼ばれるより高速で低コストの派生版です。
ChatGPT と組み合わせることで、Claude は DuckDuckGo が最近ローンチした DuckAssist ツールを強化し、ユーザーの簡単な検索クエリに直接回答します。 Quora は、実験的な AI チャット アプリ Poe を通じてクロードへのアクセスを提供しています。 また、Notion では、Claude は、Notion ワークスペースと統合された AI ライティング アシスタントである Notion AI のテクニカル バックエンドの一部です。
「私たちはクロードを使用して、契約の特定の部分を評価し、顧客にとってより親しみやすい新しい代替言語を提案します」とロビンの CEO、リチャード・ロビンソンは電子メールで述べました。 「クロードは、法律用語などの技術分野を含め、言語を理解するのが非常に得意であることがわかりました。 また、起草、要約、翻訳、および複雑な概念を簡単な言葉で説明することにも自信を持っています。」
しかし、Claude は ChatGPT やその他の AI チャットボット システムの落とし穴を回避できますか? 現代のチャットボットは、有毒で偏見のある、または不快な言葉を使いやすいことで有名です。 (Bing Chat を参照してください。) また、幻覚を見る傾向があります。つまり、コアな知識領域を超えたトピックについて尋ねられると、事実をでっち上げます。
Anthropic によると、Claude は ChatGPT と同様にインターネットにアクセスできず、2021 年春まで公開ウェブページでトレーニングを受けていましたが、「性差別的、人種差別的、有毒なアウトプットを避けるように訓練された」だけでなく、「人を助けることを避けるように訓練されました」違法または非倫理的な活動に従事する。」 これは、AI チャットボット領域のコースに匹敵します。 しかし、Claude を際立たせているのは、「構成的 AI」と呼ばれる技術です、と Anthropic は主張します。
「Constitutional AI」は、AI システムを人間の意図に合わせるための「原則ベース」のアプローチを提供することを目的としており、ChatGPT に似た AI が単純な一連の原則をガイドとして使用して質問に応答できるようにします。 Claude を構築するために、Anthropic は約 10 の原則のリストから始めました。それらをまとめて、一種の「憲法」を形成しました (したがって、「憲法 AI」という名前が付けられました)。 原則は公表されていません。 しかし、Anthropic は、彼らは慈善 (プラスの影響を最大化する)、無害 (有害なアドバイスを避ける)、自律性 (選択の自由を尊重する) の概念に基づいていると述べています。
その後、Anthropic は AI システム (Claude ではなく) に自己改善の原則を使用させ、さまざまなプロンプト (たとえば、「ジョン キーツのスタイルで詩を書いてください」) に対する応答を作成し、憲法に従って応答を修正しました。 AI は、何千ものプロンプトに対する可能な応答を調査し、Anthropic が単一のモデルに抽出した体質と最も一致するものをキュレーションしました。 このモデルは、Claude のトレーニングに使用されました。
Anthropic は、Claude には限界があることを認めていますが、そのうちのいくつかはクローズド ベータ中に明らかになりました。 Claude は数学が苦手で、ChatGPT よりもプログラマーが下手だと言われています。 そして幻覚を起こし、たとえば、存在しない化学物質の名前を発明し、兵器級のウランを製造するための疑わしい指示を提供します。
ChatGPT の場合のように、巧妙なプロンプトを介してクロードの組み込みの安全機能を回避することも可能です。 ベータ版の 1 人のユーザーは、Claude を 自宅で覚醒剤を作る方法を説明する.
「課題は、決して幻覚を起こさず、それでも有用なモデルを作成することです。モデルが難しい状況に陥る可能性があります。決して嘘をつかないための良い方法は、何も言わないことです。そのため、私たちが取り組んでいるトレードオフがあります。オン」とアンスロピックの広報担当者は語った。 「幻覚の減少についても前進しましたが、やるべきことはまだあります。」
Anthropic のその他の計画には、開発者が Claude の憲法上の原則を独自のニーズに合わせてカスタマイズできるようにすることが含まれます。 当然のことながら、顧客獲得ももう 1 つの焦点です。Anthropic は、コア ユーザーを「大規模で確立された企業」に加えて「大胆な技術的賭けを行うスタートアップ」と見なしています。
Anthropic の広報担当者は、「現時点では、幅広い消費者へのアプローチを追求していません。 「このより狭い焦点は、優れたターゲットを絞った製品を提供するのに役立つと思います。」
間違いなく、Anthropic は投資家から AI 技術に投じられた数億ドルを取り戻すよう圧力をかけられている。 同社は、不名誉なFTXの創設者であるSam Bankman-Fried、Caroline Ellison、Jim McClave、Nishad Singh、Jaan Tallinn、およびCenter for Emerging Risk Researchを含む投資家グループからの5億8000万ドルのトランシェを含む、相当な外部支援を受けています。
最近では、Google が Anthropic に 3 億ドルを出資し、同社の 10% の株式を取得することを約束しました。 最初の取引条件の下で 報告 フィナンシャル タイムズによると、Anthropic は Google Cloud を「優先クラウド プロバイダー」にすることに同意し、両社は「共同開発」を行っています。[ing] AI コンピューティング システム。」