ジェネレーティブ AI の分野で新たなトレンドが生まれています — サイバーセキュリティのためのジェネレーティブ AI です — Google は、その一歩を踏み出そうとしている企業の 1 つです。
本日の RSA Conference 2023 で、Google 発表した Cloud Security AI Workbench は、Sec-PaLM と呼ばれる特殊な「セキュリティ」AI 言語モデルを搭載したサイバーセキュリティ スイートです。 Google の PaLM モデルの派生物である Sec-PaLM は、「セキュリティのユースケースに合わせて微調整されている」と Google は述べています。これには、ソフトウェアの脆弱性、マルウェア、脅威指標、行動上の攻撃者のプロファイルに関する研究などのセキュリティ インテリジェンスが組み込まれています。
Cloud Security AI Workbench は、Mandiant の Threat Intelligence AI などの新しい AI を活用したさまざまなツールにまたがり、Sec-PaLM を活用してセキュリティ脅威を発見、要約、および対処します。 (Google が 2022 年に Mandiant を 54 億ドルで購入したことを思い出してください。) 別の Google プロパティである VirusTotal は、Sec-PaLM を使用して、サブスクライバーが悪意のあるスクリプトの動作を分析および説明できるようにします。
Sec-PaLM は、Google のクラウド サイバーセキュリティ サービスである Chronicle の顧客がセキュリティ イベントを検索し、結果を「保守的に」操作するのを支援します。 一方、Google の Security Command Center AI のユーザーは、Sec-PaLM の厚意により、影響を受けるアセット、推奨される緩和策、セキュリティ、コンプライアンス、プライバシーの調査結果に関するリスクの概要など、攻撃の露出に関する「人間が読める」説明を取得できます。
「ジェネレーティブ AI は最近、想像力をかき立てましたが、Sec-PaLM は、Google と DeepMind による長年にわたる基礎的な AI 研究と、セキュリティ チームの深い専門知識に基づいています」と、Google は今朝のブログ投稿に書いています。 「ジェネレーティブ AI をセキュリティに適用することの威力を認識し始めたばかりであり、この専門知識をお客様のために引き続き活用し、セキュリティ コミュニティ全体の進歩を促進することを楽しみにしています。」
Cloud Security AI Workbench の最初のツールである VirusTotal Code Insight が現時点では限定的なプレビューでしか利用できないことを考えると、これらはかなり大胆な野心です。 (Google は、今後数か月以内に残りのサービスを「信頼できるテスター」に展開する予定であると述べています。) 率直に言って、Sec-PaLM が実際にどれだけうまく機能するか (または機能しないか) は明らかではありません。 確かに、「推奨される緩和策とリスクの概要」は便利に聞こえますが、AI モデルが生成したという理由で、提案ははるかに優れているか、より正確でしょうか?
結局のところ、AI 言語モデルは、どんなに最先端であっても間違いを犯します。 また、プロンプト インジェクションなどの攻撃を受けやすく、作成者が意図しない方法で動作する可能性があります。
もちろん、それはテクノロジーの巨人を止めるものではありません。 3 月、Microsoft は Security Copilot を発表しました。これは、GPT-4 を含む OpenAI の生成 AI モデルを使用して脅威インテリジェンスを「要約」し、「理解」することを目的とした新しいツールです。 報道資料の中で、Microsoft は、Google と同様に、ジェネレーティブ AI により、セキュリティの専門家が新たな脅威と戦うための装備を強化できると主張しました。
陪審員はそれについて非常に熱心です。 実際、サイバーセキュリティのためのジェネレーティブ AI は、何よりも誇大広告であることが判明する可能性があります。その有効性に関する研究は不足しています。 運が良ければすぐに結果が表示されますが、それまでの間は、Google と Microsoft の主張を鵜呑みにしてはいけません。