立ち上げからちょうど1週間後 AI を活用した Bing 検索エンジン、マイクロソフトは 問題の解決に取り組んでいます と 事実誤認 とそこから生まれる奇妙な会話。 ChatGPT関連技術 フードの下。
で ブログ投稿 水曜日、ソフトウェアの巨人は、会話の人間的な側面のトーンを反映しようとするとき、長いチャットはBingを曲がりくねったところに送ることができると述べました. また、ライブスポーツのスコアなど、「非常にタイムリーなデータが必要な回答」を提供するのに Bing が苦労していることも認めています。 また、財務報告書の数値など、確固たる事実を必要とするクエリに回答するためにモデルが使用するデータ量が 4 倍になると述べています。
「最後に、クエリに合わせて回答の精度と創造性をより細かく制御できるトグルを追加することを検討しています」と同社は投稿で述べています. Microsoft は社内で Bing テクノロジーが AI を活用した回答を「定着」させる 正確さが必要な場合は、より「創造的な」応答が必要な場合は、パートナーであり ChatGPT の作成者である OpenAI の言語技術に依存します。
Microsoft によると、OpenAI テクノロジを中心に据えた Bing の新しいチャット機能は、15 以上の質問を長時間にわたって行うと、おかしくなる可能性があるとのことです。 AI モデルが混乱したり、調子がおかしくなったりします。 これは、ニューヨーク タイムズのテック コラムニストであるケビン ルースの奇妙な記事の書き起こしで明らかです。 AIとの会話、そこでは、誤った情報を広めて人間になりたいという願望を告白し、結婚をやめて一緒にいるように彼を説得しようとします. Reddit の Bing フォーラムのユーザーも Bing が暴走していることを示す注目の動作.
となる例もある. 守備的になったり、誤りを認めることを拒否したりした、ファストカンパニーによると。
「これは多くのプロンプトを必要とする重要なシナリオであるため、ほとんどの人は遭遇しないでしょうが、より微調整された制御を提供する方法を検討しています」と Microsoft は述べています。
同社はまた、読み込みの遅さ、壊れたリンク、不適切なフォーマットなどの技術的な問題に対処し、フライトの予約、電子メールの送信、回答の共有などの新機能の追加を検討すると約束した.
編集者注: CNET は、AI エンジンを使用して、編集者によって編集および事実確認された個人金融の説明者を作成しています。 詳細については、 この郵便受け.