昨年の ChatGPT の登場は、Google の背筋をまれに震えさせました。 同社は長年にわたり、人工知能開発のリーダーとしての地位を確立してきました。 しかし突然、新興企業 OpenAI の製品の月間ユーザー数が数千万人にまで急増し、観察者らは Google がそのリードを無駄にしたのではないかと疑問を抱き始めました。
数週間以内に、同社のリーダーたちは「コードレッド」を宣言しました。これは、AI 機能の出荷を開始する時期が来たという合図です。 (CEOのサンダー・ピチャイがコードレッドを宣言したことは広く報道されたが、 彼は後で私に、そうではなかったと言いました。)
それ以来、いくつかの製品が出荷されました。最も注目すべきは Bard、 同社のChatGPTアナログ。 しかし水曜日、同社の年次開発者会議で水門が開いた。 Google I/O では、同社の製品ラインナップのほぼすべての部分に関わる一連の新しい AI 機能が発表されました。
ユーザーにプラットフォームを切り替えてもらうのは、想像以上に困難であることが判明している。
ほとんどの場合、これらの製品は「今後数週間以内」または「今年後半」に出荷される予定です。 それまでは、デモや会議前の記者会見で見たプレビューを実際に続けるだけです。
しかし、機能の品質や有用性はさまざまであると思いますが、近い将来の AI について明らかになりつつあることが 1 つあります。それは、テクノロジだけでは競争環境を完全にリセットするには十分ではないということです。 既存企業は、人々がすでに使用している製品に新しい機能を導入するだけで、大きな地位を築くことができます。そして、ユーザーにプラットフォームを切り替えてもらうことは、一部の人が想像していたよりも難しいことが判明しています。
まずプラットフォームの切り替えを見てみましょう。 2月中、 Microsoft は、ChatGPT を活用した生成 AI 検索結果を備えた Bing を再起動しました。 同社は、これが消費者がBingを見直す瞬間となり、おそらくMicrosoftがはるかに大きなライバルから大きな市場シェアを剥奪するチャンスを与えることを期待していた。
3 か月後、Google が自社の検索エンジンに生成 AI 結果を追加する前夜に、そのプロジェクトは行き詰まったようです。 調査会社YipitDataのレポートを引用し、 情報 水曜日の報告によると、デスクトップ上の検索におけるBingのシェアは 過去 3 か月でわずか 0.25% 成長しました。 Microsoftは同メディアに対し、成長率はモバイルデバイスの方が高く、おそらく今後数カ月のうちにデスクトップでも同様に成長するだろうと語った。
しかし、同じ記事では、ChatGPT には 1 日あたり 6,500 万件以上のアクセスがあるのに対し、14 歳の Bing では 4,000 万件以上のアクセスがあることが指摘されています。 OpenAI のチャットボットを使用したい人のほとんどは、そのソースに直接アクセスしています。そして、新しい収益源を開拓することを期待して OpenAI のテクノロジーを統合している数十の企業のうちの 1 つにすぎない Microsoft は、API アクセスがむしろコモディティであることに気づき始めています。成長エンジンよりも。 (Microsoft は、Azure プラットフォームを通じて OpenAI に提供するすべてのインフラストラクチャ サービスを皮切りに、最終的には AI から収益を得る多くの方法を見つけるだろうと私は確信しています。しかし、それでも。)
ここでの教訓は、ChatGPT をおそらく唯一の例外として、ユーザーはほとんど AI 自体を目的地として求めていないということです。 むしろ、彼らはそれが便利な製品やサービス、理想的にはすでに使用している製品やサービスに変わるのを待っています。
先週書きましたが、 AIに欠けているインターフェース、そしてインターフェイスデザインがテキストボックスで始まりテキストボックスで終わるテクノロジーによってもたらされる課題。 今年の I/O についての考え方の 1 つは、Google がそのインターフェースに欠けている部分を実際の製品設計で埋め始めたということです。これは、あらゆる方法でユーザーを AI の生産的な使用に誘導するという取り組みです。
それらの方法をいくつか見てみましょう。 これまで、Bard はそれ自体が島、つまり Google の大規模言語モデルである PaLM の限界をテストするためのサンドボックスでした。 ただし、間もなく、Bard の出力を Gmail、ドキュメント、スプレッドシートにエクスポートできるようになります。これらの場所におそらくコピーして貼り付けることができます。 ChatGPT はおそらく、世界中のどの Web サイトよりも多くのコピー アンド ペースト操作を記録します。 Google はそのプロセス全体をボタンに抽象化しています。
ただし、理想的には、そもそも生成 AI を使用するために専用 Web サイトにアクセスする必要がありません。 たとえば、現時点では、多くの人が ChatGPT に電子メールを作成させ、それを自分の選択した電子メール クライアントに移植しています。 Google は明白な次のステップに踏み出しています。今年後半には、Gmail にメッセージ作成ウィンドウでメールを作成するように依頼できるようになる予定です。
その後、ChatGPT ではコピー アンド ペーストの操作が減少すると予測します。
Google が「」で示した方法のように、生成 AI ボックスを既存の生産性ツールに貼り付けることもできます。相棒” 特徴。 その日の最高のデモの 1 つで、Google 幹部の Aparna Pappu がドキュメントの相棒を披露しました。 彼女が姪と一緒に、行方不明の貝殻についての短編小説を書くことを想像していると、相棒が文脈の提案で同意しました。 貝殻に何が起こったのか、知りたがっていました。
それから相棒はいくつかの提案をしました。おそらくそれは嫉妬深い人魚によって盗まれたのではないかと。 もしかしたらタイムトラベラーによって持ち去られたのかもしれない。 もしかしたらイカに食べられたのかもしれません。
これがAIが私たちの生活に浸透し始める方法です
あなたが 10 歳の子供が短編小説を書くなら、これはとても楽しいでしょう。 そして、おそらく平均的なユーザーには AI そのものが理解されていないでしょう。むしろ、人気のある既存製品をさらに便利にした新しいクリエイティブ ツールのように感じられます。
昨日は同様のデモがたくさんありました。 私が衝撃を受けたのは、一連のスライドからスピーカー ノートを生成するものでした。これは、どこにいても先延ばしにする労働者にとっては天の恵みでしょう。もう 1 つは、添付された Google シートに基づいて、人々が持ち寄りに持ち込む料理のリストを作成するものでした。
ある見方をすると、このようなことは非常にありふれたものに思えるかもしれません。 しかし、近い将来、このようにして AI が私たちの生活に浸透し始めることになります。 やがて、私たちはそれを AI とは考えなくなるでしょう。 (昨日の基調講演で繰り返されるやや擁護的なテーマは、Google はすでに機械学習を使用した製品を多数出荷しているが、何らかの理由で AI とみなされるものの刻々と変化する定義を満たしていないということです。Google で「犬」を検索するたとえば写真。)
標準の 10 個の青いリンクの上に生成 AI 結果のモジュールを追加する、Google の検索に対する計画的な変更については、ここで別のコラムを書く必要があるはずです。 しかし、それがどれほど破壊的であるかをよりよく理解するために、実際に自分で試してみるまで待ちたいと思います。
今のところ、検索やその他すべてにおいて、Google は AI を全知の神託者としてではなく、多くのタスクの有用な出発点として位置づけています。 Google の AI が最初の草案を書きます。 検討すべき代替パスを提供します。 これには、今日人々が実際に AI を実際にどのように使用しているかという利点があり、壮大なことよりもそのメッセージに傾倒するのは Google の賢明な判断です。
最終的には、AI のチャンスは 1 つの企業よりもはるかに大きくなると私は今でも信じています。 しかし、これらすべての大規模な言語モデルが機能的にほぼ同等になるまで収束しつつある現在、テクノロジーだけでゲームに勝てる人は誰もいません。
AI は科学の問題から製品設計とマーケティングの問題に移行しており、後者については Google が多くの経験を積んできました。
より良いメタバース
Google I/O で見た中で一番良かったのは、 プロジェクト・スターライン、次の Zoom 通話の相手がホログラムだったらどうなるか? という実験的なハードウェアです。
2021 年から 2022 年にかけてメタバースについて私たちが 1 年間にわたって行った議論では、しばしば「テレプレゼンス」という概念に触れました。テレプレゼンスとは、デジタル上でしか表現されていないときでも、あたかも誰かと一緒に物理的に存在しているかのように感じることを可能にするテクノロジーです。 Zoom 以外で、この問題に関して私たちができる最善のことは、不格好なヘッドセットを装着し、ピクセル化された会議室に移動して、相手と話すことです。 足のない 私たちの同僚や愛する人の漫画版。
プロジェクト スターラインは開発の初期段階にあり、主流にするには大幅にコストを下げる必要があるが、必要なのはテレビのようなデバイスの前に座って電源を入れることだけだ。 ヘッドセット、メガネ、ヘッドフォンなどをいじる必要はありません。ただ人が 3 次元で驚くほど高い解像度であなたに話しかけているだけです。
Starline のゼネラルマネージャーである Andrew Natker 氏が、別のブースに座って私にそれをデモンストレーションしてくれました。 彼が私に拳をぶつけに行くと、彼の手が近づいてきたように見えた 終えた テレビ画面。 その後、彼は私にリンゴを差し出しましたが、その効果はまさに現実的でした。 そしてその間ずっと、ナルトカーの声は位置を変える彼の動きを追跡し、彼が私の目の前にいるかのような錯覚を強めました。
実際、彼は私が座っていたブースから数フィート離れたブースにいました。舞台裏には、現実世界では見つけることのできない隠れた技術強化があったと確信しています。それは、強固なデータ パイプ リンクです。たとえばデバイス。 そして、昨日の Google 社員との会話の中で、Starline の開発における主な障害は、Starline の価格を現在よりも大幅に下げることであることは明らかでした。 (誰も教えてくれなかった どうやって 高価ではありますが、セットアップ全体に 100 万ドル以上かかると言われても、エクスペリエンスの質を考慮すると、それほど高額とは思えないでしょう)。
良いニュースは、スターラインがコスト曲線を下降する兆しがあることです。 Googleは今週、Google自身だけでなく、Salesforce、T-Mobile、WeWorkなどのパートナーともデバイスのテストを開始したと発表した。
こうした課題や、Google やその他の企業で行われているすべてのコスト削減を考慮すると、Starline が最終的に Vaporware であることが判明しても驚く人はほとんどいないでしょう。 しかし、ここには、Meta のメタバースが達成に近づいていない奥深いものがあります。それは、自分が何時間もやっていることを容易に想像できる、便利で快適で人間工学に基づいた形式のビデオ チャットです。
私の家に Project Starline を設置するよりもはるかに安いという理由だけでも、今後数年間は仮想現実で会議を行うことになると確信しています。
しかし、状況が変わった瞬間、私のウェブカメラとヘッドセットは引き出しの中にしまいます。