AIに弁論をさせるほど愚かな弁護士はほとんどいないだろうが、弁護士はすでにそうしており、ブラントリー・スター判事は大失敗が繰り返されないよう措置を講じている。 彼の 法廷。
テキサス州の連邦判事は、法廷に出廷する弁護士は「提出書類のいかなる部分も生成人工知能によって起草されていない」こと、あるいは、もしあったとしても「人間によって」チェックされたことを証明しなければならないという要件を追加した。
先週、スティーブン・シュワルツ弁護士は、ChatGPTが最近の連邦申請で彼の法的研究を「補足」することを許可し、6件の訴訟と関連する判例を提供した。そのすべては言語モデルによって完全に幻覚であった。 彼は今、 このようなことを「大変遺憾に思う」、そしてこの失言が全国的に報道されたことで、おそらくこの失言を考えている他の弁護士も考え直すきっかけになっただろうが、スター判事は何のチャンスも取ろうとはしていない。
テキサス州北部地区の連邦サイトで、スター氏は他の判事と同様、法廷に特定のルールを設定する機会を与えられている。 そして最近追加されたのは(これが前述の申請に応じたものかどうかは不明だが)、 「生成型人工知能に関する認定の義務化」。 ユージン・ヴォロック 最初にニュースを伝えた。
裁判所に出廷するすべての弁護士は、提出書類のいかなる部分も生成人工知能 (ChatGPT、Harvey.AI、Google Bard など) によって起草されていないこと、または生成人工知能によって起草された言語がすべて印刷記者や従来の法律データベースを使用して人間が正確性をチェックします。
弁護士が署名するためのフォームが添付されており、「引用、引用、言い換えられた主張、および法的分析」がすべてこの禁止事項の対象となることが記載されています。 要約は AI の得意分野の 1 つであり、前例や過去の判例を見つけて要約することは法律業務に役立つ可能性があると宣伝されているため、これは予想よりも頻繁に使用されることになる可能性があります。
スター判事の事務所でこの件に関する覚書を起草した人物は誰であろうと、その動向を正確に把握している。 認定要件には、その必要性について十分な情報に基づいた説得力のある説明が含まれています (読みやすくするために改行が追加されています)。
これらのプラットフォームは信じられないほど強力で、離婚の届出、証拠開示請求、書類の誤りの示唆、口頭弁論での予想される質問など、法律において多くの用途があります。 しかし、法的説明会はその中には含まれません。 その理由は次のとおりです。
これらのプラットフォームは現状では幻覚や偏見を招きやすいです。 幻覚については、引用や引用さえもでっち上げます。 もう一つの問題は、信頼性または偏りです。 弁護士は個人的な偏見、偏見、信念を脇に置いて法律を忠実に守り、依頼人を代表するという宣誓をしますが、生成人工知能はそのような宣誓をする必要のなかった人間が考案したプログラムの産物です。
したがって、これらのシステムは、クライアント、法の支配、米国の法律と憲法 (または、上で述べたように真実) に対していかなる忠誠も保持しません。 このようなプログラムは、義務、名誉、正義の意識に束縛されず、信念ではなくコンピューター コードに従って、原則ではなくプログラミングに基づいて動作します。 プラットフォームが法的説明に必要な正確性と信頼性を備えていると信じる当事者は、休暇を申請し、その理由を説明する可能性があります。
言い換えれば、自分を正当化する準備ができているということです。
これは 1 つの法廷における 1 人の裁判官にすぎませんが、他の裁判官がこの規則を自分のものとして取り上げても不思議ではありません。 裁判所が述べているように、これは強力で潜在的に役立つテクノロジーではありますが、その使用は少なくとも明確に宣言され、正確性がチェックされる必要があります。