2月上旬、 最初に Google、次に Microsoft が、検索エンジンの大規模なオーバーホールを発表しました。 テクノロジーの巨人である両社は、大規模な言語モデルを使用して複雑な質問を理解し、応答するジェネレーティブ AI ツールの構築または購入に多額の費用を費やしてきました。 現在、彼らはそれらを検索に統合しようとしており、ユーザーにより豊かで正確なエクスペリエンスを提供することを望んでいます. 中国の検索会社バイドゥ 発表しました それに従います。
しかし、これらの新しいツールに対する興奮には、汚い秘密が隠されている可能性があります。 高性能の AI 搭載検索エンジンを構築する競争には、コンピューティング パワーの劇的な向上が必要になる可能性が高く、それに伴い、テクノロジー企業が必要とするエネルギー量と排出する二酸化炭素量が大幅に増加する可能性があります。
「インターネット コンテンツのインデックス作成と検索にはすでに膨大なリソースが関係していますが、AI を組み込むには、別の種類の火力が必要です」と、英国のサリー大学のサイバーセキュリティ教授である Alan Woodward 氏は述べています。 「ストレージと効率的な検索だけでなく、処理能力も必要です。 オンライン処理に大きな変化が見られるたびに、大規模な処理センターに必要な電力と冷却リソースが大幅に増加しています。 これはそのようなステップになる可能性があると思います。」
大規模言語モデル (LLM) のトレーニング (Microsoft の強化された Bing 検索エンジンを強化する OpenAI の ChatGPT や、Google の同等の Bard を支えるモデルなど) のトレーニングは、大量のデータ内のリンケージを解析および計算することを意味します。かなりのリソースを持つ企業によって開発されます。
スペインのコルーニャ大学のコンピューター科学者である Carlos Gómez-Rodríguez は、次のように述べています。
OpenAI も Google も、自社製品のコンピューティング コストを明らかにしていませんが、 第三者分析 研究者によると、ChatGPT が部分的に基づいている GPT-3 のトレーニングは、1,287 MWh を消費し、550 トン以上の二酸化炭素相当の排出につながったと推定されています。サンフランシスコ。
「それほど悪くはないが、考慮に入れなければならない」 [the fact that] トレーニングするだけでなく、実行して何百万ものユーザーにサービスを提供する必要があります」と Gómez-Rodríguez 氏は言います。
また、ChatGPT の利用には大きな違いがあります。投資銀行 UBS の推定では、 1 日あたり 1,300 万人のユーザー—スタンドアロン製品として、Bing に統合し、Bing が処理します。 毎日 5 億回の検索.
カナダのデータセンター企業 QScale の共同設立者である Martin Bouchard 氏は、Microsoft と Google の検索計画を読んだ結果、プロセスにジェネレーティブ AI を追加するには、少なくとも「検索ごとに少なくとも 4 倍から 5 倍のコンピューティング」が必要になると考えています。 彼は、ChatGPT は現在、コンピューティング要件を削減する試みの一環として、2021 年後半に世界の理解を停止していると指摘しています。
検索エンジン ユーザーの要件を満たすためには、それを変更する必要があります。 「モデルを頻繁に再トレーニングし、パラメーターやその他のものを追加する場合、それはまったく異なるスケールになります」と彼は言います。