マイクロソフトは、ユーザーが Bing で会話できる範囲を制限しています AIチャットボット、長い交換中にボットが脱線するというメディアの報道に続いて。 Bing Chat は、会話ごとに最大 5 つの質問またはステートメントに連続して返信するようになりました。その後、ユーザーは新しいトピックを開始するように求められます。 ブログ投稿 金曜日。 また、ユーザーは 1 日あたり合計 50 件の返信に制限されます。
制限は、会話がおかしくならないようにするためのものです。 Microsoft は、長い議論が「基本的なチャット モデルを混乱させる可能性がある」と述べています。
水曜日に、同社は、事実上の誤りや奇妙な交換を含む、ちょうど1週間前に開始されたBingの問題を修正するために取り組んでいると述べた. オンラインで報告された奇妙な反応には Bing が含まれていた ニューヨーク・タイムズのコラムニストに語る チャットボットとAIと一緒にいるために彼の結婚を放棄する Reddit ユーザーに謝罪を求める 年がまだ2022年であることに同意しなかったため。
チャットボットの応答には事実誤認も含まれており、Microsoft は水曜日に、AI モデルを微調整して、回答を得ることができるデータ量を 4 倍にしていると述べた。 Microsoft 独自の Bing AI 技術を利用した正確な回答を求めるか、OpenAI の ChatGPT 技術を使用したより「創造的な」回答を求めるかを、ユーザーがより細かく制御できるようになるとも述べています。
Bing の AI チャット機能はまだベータ テスト モードであり、潜在的なユーザーがアクセスの待機リストに参加しています。 Microsoft は、このツールを使用して、一部の人が言うように、有利なスタートを切ることを望んでいます。 次の革命 とりわけ、インターネット検索で。 ChatGPT テクノロジー 大きな水しぶきを上げた しかし、OpenAI 自体は潜在的な落とし穴について警告しており、Microsoft は AI の限界を認めています。 そしてにもかかわらず AIの印象的な資質、拡散などの悪意のある目的で人工知能が使用されているという懸念が提起されています 誤報 そして大量生産 フィッシングメール.
Microsoft は、Bing の AI 機能により、先週独自の AI チャット モデルである Bard を発表した検索大手の Google に追いつきたいと考えています。 吟遊詩人は、事実誤認に関する独自の問題を抱えており、デモ中に応答を手探りしていました。
Microsoft は金曜日のブログ投稿で、新しい AI チャット制限はベータ テストから収集された情報に基づいていると示唆しました。
「私たちのデータによると、大多数の人が探している答えを 5 ターン以内に見つけており、50 件以上のメッセージがあるチャットの会話はわずか 1% に過ぎないことが示されています。 「フィードバックを引き続き受け取りながら、検索と発見のエクスペリエンスをさらに強化するために、チャット セッションの上限を拡大することを検討します。」
編集者注: CNET は、AI エンジンを使用して、編集者によって編集および事実確認された個人金融の説明者を作成しています。 詳細については、 この郵便受け.