彼らはこれについて順調に進んでおり、2023 年の初めまでにそのフレームワークを完成させる予定です。ここにはいくつかのニュアンスがあります。リスクの解釈は人によって異なるため、リスクとは何か、リスクに対する適切なアプローチについて共通の理解を得ることが重要です。リスク軽減とは何か、潜在的な害とは何か。
あなたはAIのバイアスの問題について話しました。 その問題を解決するために政府が規制を利用できる方法はありますか?
規制による支援と非規制による支援の両方の方法があります。 AIを含む、差別的なシステムの使用をすでに禁止している既存の法律はたくさんあります。 適切なアプローチは、既存の法律がどのように適用されているかを確認し、それを AI に特化して明確にし、ギャップがどこにあるかを判断することです。
NIST は 今年初めの報告 AIのバイアスについて。 彼らは、これらの分野での統治に関連して考慮すべき多くのアプローチに言及しましたが、その多くはベストプラクティスに関係しています. つまり、システムを常に監視していることを確認したり、被害を受けたと人々が信じている場合に頼る機会を提供したりすることです。
これらのシステムがどのようにトレーニングされ、どのデータに基づいてトレーニングされているかを確実に文書化することで、偏見がどこに忍び寄っているのかを確実に理解できるようにします。これらのシステムの実装者であるユーザーは、これらのシステムが適切に開発または使用されていない場合に責任を負います。
AI の公的開発と私的開発の適切なバランスはどのようなものだと思いますか?
民間部門は、連邦政府よりもはるかに多くの投資を AI の研究開発に行っています。 しかし、その投資の性質はまったく異なります。 民間部門で行われている投資は、製品やサービスに重点を置いているのに対し、連邦政府は長期的で最先端の研究に投資しています。これらの研究は、必ずしも投資の市場を牽引するものではありませんが、ブランドへの扉を開く可能性があります。 – AI を行う新しい方法。 そのため、研究開発の面では、連邦政府が、業界を牽引する投資理由がない分野に投資することが非常に重要です。
産業界は連邦政府と提携して、現実世界の課題が何であるかを特定するのに役立てることができます。 それは、米国連邦政府の投資にとって実りあるものになるでしょう。
政府と業界がお互いから学べることはたくさんあります。 政府は、業界が自社のために開発したベスト プラクティスや教訓について学ぶことができ、政府は AI に必要な適切なガードレールに集中することができます。