Microsoft が ChatGPT を利用した新しい Bing 検索エンジンを人々に公開してから約 2 秒後、人々は、いくつかの質問に対して、次のような不正確または無意味な回答を返すことに気付き始めました。 陰謀論. Google には恥ずかしい瞬間がありました。 科学者 は、チャットボット Bard の同社自身の広告に事実誤認を発見し、その後、株価から 1,000 億ドルを一掃しました。
このすべてをさらに衝撃的なものにしているのは、AI 言語モデルに注意を払ってきた誰もがまったく驚きを感じなかったことです。
ここに問題があります。テクノロジーは、この規模でこのように使用する準備ができていません。 AI 言語モデルは悪名高いデタラメであり、多くの場合、虚偽を事実として提示します。 彼らは文中の次の単語を予測することには優れていますが、その文が実際に何を意味するかについては知りません。 そのため、事実を正確に把握することが重要な検索と組み合わせるのは非常に危険です。
ヒット AI チャットボット ChatGPT の作成者である OpenAI は、これはまだ単なる研究プロジェクトであり、人々のフィードバックを受けて常に改善していることを常に強調してきました。 検索結果が信頼できない可能性があるという注意事項はあるものの、Microsoft が Bing の新しいバージョンに統合することを止めたわけではありません。
Google は何年もの間、自然言語処理を使用して、ユーザーがキーワードではなく文全体を使用してインターネットを検索できるようにしてきました。 しかし、オンライン検索を専門とするワシントン大学のチラグ・シャー教授によると、同社はこれまで、独自の AI チャットボット技術を独自の検索エンジンに統合することに消極的でした。 Google のリーダーシップは 「風評リスク」が心配 ChatGPT のようなツールを急いで出すこと。 皮肉!
Big Tech の最近の失敗は、AI を活用した検索が失われたという意味ではありません。 Google と Microsoft が AI によって生成された検索結果の要約をより正確にするために試みた 1 つの方法は、引用を提供することです。 ソースにリンクすることで、ユーザーは検索エンジンがどこから情報を取得しているかをよりよく理解できるようになる、と AI スタートアップの Hugging Face の研究者兼倫理学者であり、かつて Google の AI 倫理チームを率いていたマーガレット ミッチェルは言います。
これは、他の方法よりも多くの情報源を検討するように促すことで、物事に対するより多様な見方を人々に与えるのに役立つかもしれないと彼女は言います.
しかし、それはこれらの AI モデルが情報を構成し、自信を持って虚偽を事実として提示するという根本的な問題に対処するものではありません。 また、AI によって生成されたテキストが信頼できるように見え、情報源を引用している場合、皮肉なことに、ユーザーは表示されている情報を再確認する可能性がさらに低くなる可能性があります。