ジェネレーティブ AI をすべての製品に注入するという継続的な探求の一環として、マイクロソフトは本日、 セキュリティ副操縦士、脅威インテリジェンスの「要約」と「理解」を目的とした新しいツール。
詳細を明らかにした発表の中で、Microsoft は Security Copilot を、セキュリティ インシデントに優先順位を付けながら攻撃に関するデータを関連付ける方法として売り込みました。 無数のツールがすでにこれを行っています。 しかし、Microsoft は、既存のセキュリティ製品ポートフォリオと統合された Security Copilot は、OpenAI の生成 AI モデル、特に最近発売されたテキスト生成 GPT-4 によって改善されていると主張しています。
マイクロソフト セキュリティのエグゼクティブ バイス プレジデントであるチャーリー ベル (Charlie Bell) は、定型文で次のように述べています。 「Security Copilot を使用して、世界をより安全な場所にするために必要なツールとテクノロジをすべての防御者が利用できる未来を構築しています。」
Microsoft は Security Copilot がどのように GPT-4 を組み込んでいるかを正確に明らかにしていません。 代わりに、訓練されたカスタム モデル (おそらく GPT-4 ベース) を強調し、Security Copilot を強化して、サイバーセキュリティに密接に関連する「セキュリティ固有のスキルのセットを組み込み」、「スキルとクエリを展開」します。
マイクロソフトは、モデルが顧客データでトレーニングされていないことを強調し、言語モデル駆動型サービスに対する一般的な批判に対処しました.
このカスタム モデルは、セキュリティ関連の質問に答え、最善の行動方針をアドバイスし、イベントとプロセスを要約することで、「他のアプローチが見逃している可能性があるものを見つける」のに役立つと Microsoft は主張しています。 しかし、テキスト生成モデルの虚偽の傾向を考えると、そのようなモデルが本番環境でどれほど効果的かは不明です。
Microsoft 自身も、カスタム Security Copilot モデルが常にすべてを正しく行うとは限らないことを認めています。 「AI によって生成されたコンテンツには間違いが含まれている可能性があります」と同社は書いています。 「これらのやり取りから引き続き学びながら、より一貫性があり、関連性があり、有用な回答を作成するために、その回答を調整しています。」
願わくば、これらの間違いが悪いセキュリティ問題を悪化させないことを願っています。