月桂樹: それは素晴らしいことです。 詳細な説明をありがとうございます。 では、あなたは個人的にガバナンスを専門としていますが、企業は人工知能に対する保護手段の提供と機械学習の導入の両方のバランスをとりながら、イノベーションを促進するにはどうすればよいでしょうか?
ステファニー: そのため、AI/ML 導入のための安全対策とイノベーションの促進のバランスを取ることは、企業にとって非常に困難な課題となる可能性があります。 それは大規模であり、非常に速く変化しています。 ただし、バランスをとることが非常に重要です。 そうでなければ、ここでイノベーションを起こす意味は何でしょうか? このバランスを達成するために役立つ重要な戦略がいくつかあります。 第一に、明確なガバナンス ポリシーと手順を確立し、AI/ML の開発と導入に適合しない可能性がある既存のポリシーを見直し、更新する必要があります。これには、先ほど述べた監視や継続的なコンプライアンスなどの新しいポリシーと手順が含まれます。 2 番目に、すべての関係者を AI/ML 開発プロセスに参加させます。 私たちはデータ エンジニア、ビジネス、データ サイエンティストから始まり、モデルを本番環境にデプロイする ML エンジニアもいます。 模型評論家。 ビジネス関係者とリスク組織。 そしてそれが私たちが焦点を当てていることです。 私たちは、最初から最後まで透明性、自動化、優れたユーザー エクスペリエンスを提供する統合システムを構築しています。
したがって、これらすべてがプロセスを合理化し、全員を団結させるのに役立ちます。 第三に、この全体的なワークフローを可能にするだけでなく、自動化を可能にするデータを取得するシステムを構築する必要がありました。 多くの場合、ML ライフサイクル プロセスで発生するアクティビティの多くは、異なるグループや部門に属しているため、異なるツールを通じて実行されます。 その結果、参加者は手動で情報を共有し、レビューし、承認することになります。 したがって、統合システムを構築することが重要です。 4 番目の AI/ML モデルのパフォーマンスの監視と評価は、先ほども述べたように非常に重要です。なぜなら、モデルを監視しないと、実際には本来の目的から悪影響を受けるからです。 そして、これを手動で行うとイノベーションが阻害されてしまいます。 モデルのデプロイメントには自動化が必要であるため、モデルを実稼働環境で開発およびデプロイして実際に動作させるには、自動化が重要です。 再現可能であり、本番環境でも動作しています。
それはとてもとても重要です。 また、モデルを監視するための明確に定義されたメトリクスが必要です。これには、データだけでなくインフラストラクチャ モデルのパフォーマンス自体も含まれます。 最後に、トレーニングと教育の提供ですが、これは集団スポーツであるため、誰もが異なる背景を持ち、異なる役割を果たします。 ライフサイクルプロセス全体を相互に理解することは非常に重要です。 また、使用するのに適切なデータとは何か、ユースケースに合わせてデータを正しく使用しているかについて理解する教育を受けていれば、後になってモデルのデプロイメントを拒否することを防ぐことができます。 したがって、これらすべてがガバナンスとイノベーションのバランスを取るための鍵であると私は考えています。
月桂樹: ここで議論すべき別のトピックがあり、あなたは回答の中でそれに触れていますが、それは、誰もが AI プロセスをどのように理解しているかということでした。 作成からガバナンス、実装に至る AI/ML ライフサイクルにおける透明性の役割について説明していただけますか?
ステファニー: もちろん。 AI/ML はまだかなり新しく、進化し続けていますが、一般的に人々は、ビジネス上の問題を定義し、問題を解決するためにデータを取得して処理し、構築するという高レベルのプロセス フローに落ち着いています。モデル、つまりモデルの開発とモデルのデプロイメントです。 ただし、導入前に社内でレビューを行い、適切な責任ある AI 原則に従ってモデルが開発されていることを確認し、継続的にモニタリングします。 人々が透明性の役割について語るとき、それはライフサイクル全体、ライフサイクル イベントにわたるすべてのメタデータ アーティファクトをキャプチャする機能だけではなく、人々が何が起こったのかを知ることができるように、このすべてのメタデータがタイムスタンプとともに透明である必要があります。 そしてそうやって情報を共有しました。 そして、この透明性を持つことは信頼を築き、公平性を保証するので非常に重要です。 適切なデータが使用されていることを確認する必要があり、それによって説明が容易になります。
モデルについては説明が必要なことがあります。 どのように意思決定を行うのでしょうか? そして、それは継続的な監視をサポートするのに役立ち、さまざまな方法で実行できます。 私たちが最初から非常に強調していることの 1 つは、AI イニシアチブの目標、ユースケースの目標、そしてデータの使用目的は何かを理解することです。 私たちはそれを見直します。 データをどのように処理しましたか? データの系統と変換プロセスは何ですか? どのようなアルゴリズムが使用されていますか?また、使用されているアンサンブル アルゴリズムは何ですか? そして、モデルの仕様を文書化して詳しく説明する必要があります。 モデルを使用する必要がある場合と使用しない場合の制限は何ですか? 説明可能性、監査可能性、このモデルがどのように生成されるかをモデルの系統自体に至るまで実際に追跡できるでしょうか? また、インフラストラクチャ、それが関与するコンテナなどのテクノロジの詳細も、モデルのパフォーマンス、デプロイ先、モデルからの出力予測を実際に消費するビジネス アプリケーション、およびモデルからの決定に誰がアクセスできるかに実際に影響を与えるため、テクノロジの詳細も考慮されます。モデル。 したがって、これらはすべて透明性の主題の一部です。
月桂樹: はい、それはかなり広範囲です。 AI が生成 AI などの多くの新興技術テクノロジーを備えた急速に変化する分野であることを考えると、JP モルガン チェースのチームはどのようにしてこれらの新しい発明を把握し、いつ、どこに導入するかを選択するのでしょうか?