ホフマンは昨年の夏にシステムにアクセスして以来、教育、芸術、司法制度、ジャーナリズムなどで AI モデルを使用できるさまざまな方法についての考えを書いています。 この本の中で、彼はシステムとの対話からのコピーペーストされた抜粋を含み、AI の将来に対する彼のビジョンを概説し、GPT-4 をライティング アシスタントとして使用して新しいアイデアを得て、その答えを分析しています。
最後に簡単な言葉を… GPT-4 は、AI コミュニティにとって現時点でのクールで新しいピカピカのおもちゃです。 アイデアを思いつき、テキストを要約し、概念を説明し、ありふれたタスクを自動化するのに役立つ強力な支援技術であることは否定できません。 これは、特にホワイト カラーのナレッジ ワーカーにとっては歓迎すべき展開です。
ただし、OpenAI 自体が 注意を促す モデルの使用を回避し、モデルがポーズをとることを警告します いくつかの安全上のリスク、プライバシーの侵害、人をだまして人間だと思わせること、有害なコンテンツの生成などを含みます。 また、まだ遭遇していない他の危険な行動にも使用される可能性があります。 ぜひ、興奮してください。 現時点では、人々がこれらの強力な新しいモデルを使用して有害なことを行うのを止めるものは何もありません。
より深い学習
中国のハイテク大手バイドゥがChatGPTへの回答を発表
それで。 多くの。 チャットボット。 AI チャットボット ゲームに参入する最新のプレーヤーは、中国のハイテク大手 Baidu です。 先週後半、Baidu は Ernie Bot と呼ばれる新しい大規模な言語モデルを発表しました。これは、数学の問題を解き、マーケティング コピーを作成し、中国文学に関する質問に答え、マルチメディア応答を生成することができます。
中国の代替案: Ernie Bot (名前は「Enhanced Representation from kNowledge IntEgration」の略で、中国名は文心一言、または Wenxin Yiyan です) は、歴史的事実の説明や伝統的な詩の作成など、中国文化に固有のタスクで特に優れたパフォーマンスを発揮します。 続きを読む 同僚の Zeyi Yang から。
さらに深い学習
言語モデルは、バイアスを「自己修正」できる可能性があります。
大規模な言語モデルは、人間が作成した膨大な量のひどいコンテンツをトレーニングに使用しているため、有毒なバイアスを吐き出すことで有名です。 しかし、モデルが十分に大きい場合、これらのバイアスの一部を自己修正できる可能性があります。 驚くべきことに、私たちがしなければならないことは、尋ねることだけです。