Wakeling は、Harvey の翻訳力に特に感銘を受けました。 主流の法律には強いが、幻覚を起こしやすい特定のニッチには苦労している. 「私たちは限界を知っており、人々は幻覚のリスクについて非常によく知らされてきました」と彼は言います. 「会社内では、大規模なトレーニング プログラムに多大な時間を費やしてきました。」
WIRED に話を聞いた他の弁護士は、業務における AI の使用について慎重ながらも楽観的でした。
法律事務所 TLT のクライアント トランスフォーメーション パートナーである Sian Ashton 氏は、次のように述べています。 「しかし、これは間違いなく初期段階のツールであり、ビジネスやサブスクリプション サービスで既に利用可能な先行文書を提供する以上のことを実際に行っているのだろうかと思います。」
フランスのパリを拠点とするデータ保護弁護士のダニエル・セレドゥイック氏は、AI は引き続き初心者レベルの仕事に使用される可能性が高いと述べています。 「法律文書の起草は非常に労働集約的な作業である可能性があり、AI はそれを非常にうまく把握できるようです。 契約、ポリシー、およびその他の法的文書は規範的なものになる傾向があるため、情報を収集して統合する AI の機能は、多くの重労働を行うことができます。」
しかし、Allen & Overy が発見したように、AI プラットフォームからのアウトプットは慎重に検討する必要があると彼は言います。 「法律実務の一部は、クライアントの特定の状況を理解することであるため、アウトプットが最適になることはめったにありません。」
Sereduick 氏は、合法的な AI からのアウトプットは注意深く監視する必要がある一方で、インプットの管理も同様に困難になる可能性があると述べています。 「AI に送信されたデータは、データ モデルやトレーニング データの一部になる可能性があり、これはクライアントや個人のデータ保護とプライバシーの権利に対する守秘義務に違反する可能性が非常に高いです」と彼は言います。
これは特にヨーロッパで問題となっています。ヨーロッパでは、この種の AI を使用すると、企業が収集および処理できる個人に関するデータの量を管理する EU の一般データ保護規則 (GDPR) の原則に違反する可能性があります。
「その基盤の上に構築されたソフトウェアを合法的に使用できますか? [of mass data scraping]? 私の意見では、これは未解決の問題です」と、データ保護の専門家である Robert Bateman 氏は述べています。
法律事務所は、GDPR の下で、彼らが管理するクライアントに関する個人データを Harvey のようなジェネレーティブ AI ツールにフィードするための確固たる法的根拠と、AI ツールを操作するサード パーティによるそのデータの処理をカバーする契約を必要とする可能性が高い、と Bateman 氏は言います。
Wakeling は、Allen & Overy が Harvey の展開に個人データを使用しておらず、データがリング フェンスで保護され、他の用途から保護されていると確信できない限り、使用しないと述べています。 その要件がいつ満たされるかを決定するのは、会社の情報セキュリティ部門のケースです。 「私たちはクライアントのデータに細心の注意を払っています」と Wakeling 氏は言います。 「現在、私たちはそれを非個人データ、非クライアント データ システムとして使用して、調査や草案の作成、スライドの計画の準備などにかかる時間を節約しています。」
ジェネレーティブ AI ツールに個人データを供給することに関しては、国際法はすでに強化されています。 ヨーロッパ全域で、 EUのAI法 人工知能の使用をより厳しく規制しようとしています。 2 月初旬、イタリアのデータ保護庁 踏み込んだ ジェネレーティブ AI チャットボット Replika がユーザーの個人データを使用するのを防ぐため。
しかし、Wakeling は、Allen & Overy が AI を活用しながら、顧客データを安全かつセキュアに保ちながら、会社の働き方を改善できると信じています。 「それは、生産性と効率に実質的な違いをもたらすでしょう」と彼は言います。 弁護士の 1 日のうち貴重な時間を費やす小さなタスクを AI にアウトソーシングできるようになりました。 「現在アクセスできるようになった 3,500 人の弁護士を合計すると、かなりの数になります」と彼は言います。 「完全な混乱ではないにしても、それは印象的です。」