人工知能 (AI) のイノベーションがニュースサイクルを上回り、社会の注目を集めるにつれ、この前例のないテクノロジーの波が経済的および社会的進歩への積極的な貢献としてその可能性を最大限に発揮するためには、AI の責任ある倫理的な開発と使用の枠組みがますます重要になっています。 。
欧州連合はすでに、責任ある AI に関する法律の制定に取り組んでいます。 それらの取り組みについて私の考えを共有しました ほぼ2年前。 そして、AI 法は、知られているように、「イノベーションと社会的配慮に対する客観的かつ慎重なアプローチ」でした。 現在、テクノロジー企業のリーダーと米国政府が集まり、責任ある AI に関する統一ビジョンを策定しています。
生成 AI の力
昨年、OpenAI がリリースした ChatGPT は、テクノロジー イノベーター、ビジネス リーダー、一般の人々の想像力を魅了し、生成 AI の機能に対する消費者の関心と理解が爆発的に高まりました。 しかし、政治問題などで人工知能が主流になり、システムを実験したりテストしたりする人間の傾向により、誤った情報の伝達能力、プライバシーへの影響、サイバーセキュリティや不正行為へのリスクがすぐに後回しになってしまう危険性があります。
これらの潜在的な課題に対処し、アメリカ国民の権利と安全を保護する責任ある AI イノベーションを確保するための初期の取り組みとして、ホワイトハウスは責任ある AI を推進するための新たな措置を発表しました。
の ホワイトハウスが先週発表したファクトシート、バイデン・ハリス政権は「人工知能(AI)における米国の責任あるイノベーションを促進し、人々の権利と安全を守る」ための3つの行動を概説した。 これらには次のものが含まれます。
- 責任あるアメリカのAI研究開発を推進するための新たな投資。
- 既存の生成 AI システムの公的評価。
- AI リスクの軽減と AI の機会の活用において、米国政府が模範を示すことを保証するための政策。
新規投資
新規投資に関しては、7つの新しい国立AI研究所を立ち上げるための国立科学財団の1億4000万ドルの資金は、民間企業が調達した資金と比較すると見劣りする。
方向性としては正しいものの、米国政府の AI への投資は他国の政府投資と比較すると微々たるものです。 2017年に投資を開始した中国。 人材育成と研究のための学術パートナーシップを通じて投資の影響を拡大する差し迫った機会が存在します。 政府は、すでに AI 研究開発の最前線で活躍し、イノベーションを推進し、AI の力でビジネスに新たな機会を創出している学術機関や企業機関と並んで、AI センターに資金を提供すべきである。
AI センターと、MIT のシュワルツマン大学やノースイースタンの実験 AI 研究所などのトップ学術機関とのコラボレーションは、学界、産業界、政府の専門家を結集して最先端の研究と研究に協力することで、理論と実用化の間のギャップを埋めるのに役立ちます。現実世界のアプリケーションを含む開発プロジェクト。 これらのセンターは、大手企業と提携することで、企業が AI を自社の業務に適切に統合し、効率を向上させ、コストを削減し、消費者の成果を向上させるのに役立ちます。
さらに、これらのセンターは、学生に最先端のテクノロジーへのアクセス、実際のプロジェクトでの実践体験、業界リーダーからの指導を提供することで、次世代の AI 専門家の教育にも役立ちます。 AI に対して積極的かつ協力的なアプローチをとることで、米国政府は、AI が人間の仕事を代替するのではなく、強化する未来の形成を支援することができます。 その結果、社会のすべてのメンバーがこの強力なテクノロジーによって生み出される機会から恩恵を受けることができます。
公的評価
モデルの評価は、AI モデルが正確で信頼性がありバイアスがないことを保証するために重要であり、現実世界のアプリケーションへの導入を成功させるために不可欠です。 たとえば、歴史的に過小評価されてきた貧困人口が存在する赤線都市で生成 AI をトレーニングする都市計画のユースケースを想像してください。 残念ながら、それは同じことをさらに引き起こすだけです。 融資の意思決定に AI アルゴリズムを使用する金融機関が増えているため、融資におけるバイアスについても同様です。
これらのアルゴリズムが特定の人口統計グループに対して差別的なデータに基づいてトレーニングされている場合、それらのグループへの融資を不当に拒否し、経済的および社会的格差につながる可能性があります。 これらは AI におけるバイアスのほんの一例にすぎませんが、新しい AI テクノロジーやテクニックがどれだけ早く開発され導入されているかに関係なく、このことは常に念頭に置いておく必要があります。
AI の偏見と闘うために、政府は、研究者、実践者、愛好家が集まり、人工知能と機械学習の最新の進歩を探求するフォーラムである DEFCON 31 AI Village でモデル評価の新しい機会を設けると発表しました。 モデル評価は、Anthropic、Google、Hugging Face、Microsoft、Nvidia、OpenAI、Stability AI などのこの分野の主要企業との共同イニシアチブであり、Scale AI が提供するプラットフォームを活用しています。
さらに、バイデン・ハリス政権の AI 権利章典の青写真および米国標準技術研究所 (NIST) の AI リスク管理フレームワークに概説されている原則と実践にモデルがどのように適合しているかを測定します。 これは、行政が企業と直接関わり、企業の AI ラボとなったこの分野の技術リーダーの専門知識を活用するという前向きな展開です。
政府の政策
AI リスクの軽減と AI の機会活用において米国政府が模範を示していることを保証するための政策に関する 3 番目の行動に関して、行政管理予算局はパブリックコメントのために米国政府による AI システムの使用に関する政策ガイダンスの草案を作成する予定です。 。 繰り返しになりますが、これらの政策のスケジュールや詳細は示されていませんが、 今年初めに出された人種平等に関する大統領令 最前線で活躍すると予想される。
この大統領令には、公平性を高める方法でAIと自動化システムを使用するよう政府機関に指示する条項が含まれている。 これらの政策が有意義な影響を与えるためには、インセンティブと波及効果が含まれていなければなりません。 単なる任意のガイダンスであってはなりません。 たとえば、セキュリティに関する NIST 標準は、ほとんどの政府機関による展開の有効な要件です。 これらを遵守しないことは、少なくとも関係者にとって非常に恥ずかしいことであり、政府の一部で人事措置が講じられる根拠となります。 NIST などの一部としての政府の AI 政策が効果的であるためには、比較可能なものでなければなりません。
さらに、そのような規制を遵守するためのコストが、スタートアップ主導のイノベーションの障害となってはいけません。 たとえば、規制遵守のコストがビジネスの規模に応じて変化するフレームワークでは何を達成できるでしょうか? 最後に、政府が AI プラットフォームとツールの重要な購入者になるにつれ、その政策がそのようなツールを構築するための指針となることが最も重要です。 このガイダンスの遵守を文字通り、あるいは効果的な購入要件 (FedRamp セキュリティ標準など) にすれば、これらのポリシーは大きな変化をもたらす可能性があります。
生成 AI システムがより強力で普及するにつれて、創業者、運営者、投資家、技術者、消費者、規制当局を含むすべての利害関係者が、思慮深く意図的にこれらのテクノロジーを追求し、関与することが不可欠です。 生成 AI とより広範な AI は、業界に革命を起こし、新たな機会を生み出す可能性を秘めていますが、特に偏見、プライバシー、倫理的配慮の問題に関して、重大な課題ももたらします。
したがって、すべての利害関係者は、AI が責任を持って有益に開発および使用されることを保証するために、透明性、説明責任、コラボレーションを優先する必要があります。 これは、倫理的な AI の研究開発に投資し、多様な視点やコミュニティと関わり、これらのテクノロジーの開発と展開のための明確なガイドラインと規制を確立することを意味します。