Microsoft は、AI チャットボットを検索エンジン Bing に統合することで、ChatGPT の成功を利用していると報告されています。 しかし、それはどのように見えるでしょうか? Bing ユーザーのおかげで、AI を利用した検索エンジンの新しいバージョンが今日、不思議なことに現れた (そして消えた) と言っていました。
学生でデザイナーの Owen Yin は、「新しい Bing」を見たと報告しました。 今朝のツイッター. 彼が言った ザ・バージ Twitter の DM 経由で、彼は Bing を Microsoft の Edge ブラウザーのホームページとして設定し、新しい UI がロードされたばかりであることを伝えました。 「それを見つけるために何もしませんでした」とインは言いました。 「数分後、動かなくなりました…自分が何を見ているのかを理解したとき、あごが落ちました!」
(ザ・バージ これらのスクリーンショットの信憑性を確認できず、Microsoft はこれらの明らかなリークの有効性についてコメントすることを拒否しました.)
Yin はシステムを簡単にテストし、統合に関する詳細を共有することができました。 Medium のブログ投稿. 彼は、チャットボットは質問に答えるだけでなく、会話形式で質問できることを指摘しました。
新しい Bing は、明らかにその情報源を引用することもできます。 これは重要な機能です。ChatGPT のような言語モデルでは情報のソースを記述できないため、信頼性が低下します。
AI によって拡張された Bing のスクリーンショットは、「検索」の横のメニュー バーに表示される新しい「チャット」オプションを示しています。 それを選択すると、「新しい Bing へようこそ: AI を活用した応答エンジン」というチャット インターフェイスが表示されます。 以下に、ユーザーが「複雑な質問をする」、「より良い回答を得る」、「創造的なインスピレーションを得る」という 3 つの提案を示します。 そして、免責事項があります。 事実を確認し、フィードバックを共有して、学び、改善できるようにしてください。」
これはすべて、ChatGPT 自体の UI に似ており、AI チャットボットの最適な使用方法に関する提案と、その回答が信頼できない可能性があるという警告も提供します.
この後者の点は、AI 言語モデルが検索にどのように役立つかを考える際の鍵となります。 これらのシステムが一定の頻度で「幻覚」を起こすことはよく知られており (これは AI が「作り話」を意味しています)、専門家は検索エンジンへの統合がほぼ確実に誤った情報を提供すると警告しています。 問題は、その情報も危険ではないかということです。 これらのシステムが適切な保護なしで稼働すると、たとえば、人種差別的または偏った歴史のバージョンなど、有害な医学的アドバイスを提供する可能性があります. このようなコンテンツはすでにインターネット上で見つけることができますが、AI の権限で配信されるわけではありません。
これらの潜在的な問題にもかかわらず、ChatGPT の爆発的な人気は、Microsoft と Google の両方が AI 支援の将来の計画を加速することを奨励しているようです. マイクロソフトは、Bing の新しいバージョンを発表する予定であると伝えられています。 今後数週間、一方、Google は来週予定されているイベントで、今後の AI の取り組みについて話し合っています。
トム・ウォーレンによる追加報告.