AIの安全性に対する英国のアプローチは信頼性に欠けると報告書が警告


英国政府はここ数週間、AIの安全性という初期段階にある分野において、国際的な推進者であり揺るがし者であるというイメージを醸成しようと努めてきた。先月、このテーマに関するサミット開催の派手な発表と、次の約束を取り下げた。それによると、「最先端の」AI 安全性研究を行う基礎モデルのタスクフォースに 1 億ポンドを費やします。

しかし、英国首相でシリコンバレーの大ファンでもあるリシ・スナック氏が率いる自称政府は、AIの応用を規制するための新たな国内法を可決する必要性を回避しており、これはブランド「イノベーション推進」というテーマに関する独自の政策文書であるという立場だ。

また、AI の安全性に反するリスクを伴う国家データ保護枠組みの規制緩和案を可決しようとしている最中でもある。

後者は、独立した研究に焦点を当てたいくつかの結論のうちの 1 つです。 エイダ・ラブレス研究所ナフィールド財団慈善信託の一部である同団体は、AI規制に対する英国のアプローチを調査した新しい報告書で、外交的ではあるが、閣僚にとっては読みにくい場合もある。

この報告書には、この分野における政府の政策/信頼性を向上させるための、つま​​り英国がこのテーマに真剣に取り組んでもらいたい場合に向けた、18項目の完全な勧告が詰め込まれている。

同研究所は、AI の安全性について「高価な」定義を提唱しています。これは、「AI システムの能力が向上し、社会に組み込まれるにつれて生じているさまざまな危害を反映したもの」です。 したがって、この報告書は、「AI システムが今日引き起こす可能性のあるもの」をどのように規制するかに焦点を当てています。 それらを現実世界の AI の害と呼びます。 (政策立案者の注目を集める目的で、最近ハイテク業界の特定の著名人によって誇張されている、SF にインスピレーションを得た理論的な将来の起こり得るリスクとは異なります。)

今のところ、(現実世界の)AI の安全性を規制するためのスナク政府のアプローチは矛盾していると言っても過言ではありません。 安全性を擁護したいと主張する業界主導の派手な広報に重点を置いているが、誤った判断で自動化を適用することで生じる可能性があるとわかっているリスクや危害の寄せ集めから守るための実質的なルールを設定するための政策提案は軽視されている。

エイダ・ラブレス研究所が主要な真実の爆弾を投下している様子は次のとおりです。

英国政府は、英国の社会と経済に利益をもたらすためにAI技術の開発と普及を活用し、英国を「AI超大国」にするという野望を打ち出し、2023年秋に世界サミットを主催する。この野心は効果的な行動がなければ実現しない。国内規制は、英国の将来の AI 経済のプラットフォームを提供します。

T同氏の報告書の膨大な勧告リストは、英国のAIに対する現在のアプローチには改善の余地が多くあると同研究所が見ていることを明らかにしている。

今年初め、政府は国内でAIを規制するための望ましいアプローチを発表し、現段階では新たな法律や監督機関の必要性はないと述べた。 その代わりに白書は、政府が提案した一連の柔軟な原則を提示し、既存の分野別(および/または横断的)規制当局が「自らの権限内でAIを解釈し、適用する」べきだと提案した。 AI の新しい使用法を監督するための新たな法的権限も追加の資金もありません。

ホワイトペーパーに記載されている 5 つの原則は次のとおりです。 安全性、セキュリティ、堅牢性。 適切な透明性と説明可能性。 公平性。 説明責任とガバナンス。 異議申し立てと救済。 紙の上ではどれも問題ないように思えますが、AI の安全性を規制する場合、紙だけでは役に立たないことは明らかです。

目指すべきいくつかの大まかな原則だけでAIについて何をすべきかを既存の規制当局に決めさせ、新たなリソースを与えないという英国の計画は、議員らがEU連合が定めたリスクベースの枠組みに関する合意形成に追われているEUの計画とは対照的である。幹部は2021年にプロポーズした。

悪者に結果を強制する権限を持たずに、過重労働を抱える既存の規制当局に新たな責任を課して、結果を悪者に強制する権限を与えない英国の厳しい予算アプローチは、控えめに言ってもAIの安全性に関してはあまり信頼できるものとは思えない。

イノベーション推進を目指しているのであれば、これは首尾一貫した戦略とは思えません。なぜなら、AI開発者は、最新のAIブームが起きるずっと前に起草された、分野別の分野横断的な法律のつぎはぎ全体を考慮する必要があるからです。 開発者は、さまざまな規制機関の監督を受けることになるかもしれません (ただし、前述の原則を強制するためのリソースと法的権限が不足していることを考慮すると、開発者の注意力は弱いかもしれません)。 それで、実際には、それは次のレシピのように見えます 既存のルールが AI アプリに適用されるかどうかの不確実性。 (そして、おそらく、分野、ユースケース、関係する監督機関などに応じて、規制解釈のパッチワークが発生します。したがって、明確さではなく、混乱とコストが発生します。)

英国の既存の規制当局がAIにどのようにアプローチするかについてのガイダンスを迅速に作成したとしても(一部の規制当局は既に実施している、あるいは取り組んでいるように)、エイダ・ラブレス研究所の報告書でも指摘されているように、まだ多くのギャップが存在するだろう。英国の既存の規制状況。 したがって、このアプローチをさらに拡張するという提案は、あらゆる分野で AI の使用が拡大/爆発するにつれて、規制の不一致が根付き、さらには増幅することを意味します。

ここで再び研究所を紹介します。

英国経済の大部分は現在規制されていない、または部分的にのみ規制されています。 これらの状況で AI 原則の実装に誰が責任を負うのかは不明です。これには以下が含まれます。 規制対象分野内であっても、規制当局によって包括的に監視されていない採用や雇用などの機密性の高い慣行。 教育や警察などの公共部門のサービスは、不均等な規制当局のネットワークによって監視され、執行されています。 給付金管理や税金不正行為の検出など、中央政府部門によって実行される活動。多くの場合、直接規制されていません。 小売などの民間部門の規制されていない部分。

「AI はあらゆる分野で導入され、使用されていますが、英国の AI に関する法規制ネットワークには現在、大きなギャップがあります。 安全策を経済全体に確実に拡大するには、より明確な権利と新たな制度が必要である」とも示唆している。

政府が主張する「AI リーダーシップ」の立場に対するもう 1 つの矛盾が増大しているのは、この国を世界的な AI 安全ハブにするという政府の目標が、国民データに対する国内の保護を骨抜きにしようとする社内の取り組みによって、直接的に損なわれているということだ。これらは、規制緩和されたデータ保護およびデジタル情報法案 (No. 2) を通じて、重大な影響および/または法的影響を伴う自動化された決定の対象となります。

政府はこれまでのところ、EU由来のデータ保護ルールブックを破棄するというEU離脱支持者の最も頭が痛い提案(例えば、英国の一般データ保護規則から第22条全体(自動決定の保護を扱う)を単純に削除するなど)を避けているが、それにもかかわらず、英国を世界的なAI安全ハブにするという新たな野心にもかかわらず、英国は現在のデータ保護法の下で国民が享受している保護レベルをさまざまな方法で引き下げる計画を進めている。

「英国の GDPR は、英国で現在施行されているデータ保護の法的枠組みであり、AI による潜在的な危害から個人やコミュニティを守るために不可欠な保護を提供します。 2023年3月に現在の形で上程されたデータ保護およびデジタル情報法案(第2号)は、これらの保護を大幅に修正するものだ」と同研究所は警告し、例えばこの法案では多くの種類の自動決定の禁止が削除され、その代わりにと指摘している。データ管理者に対し、「個人が決定に異議を申し立てられるようにする措置などの安全策」を講じることを義務付けているが、これは実際の保護レベルが低いと主張している。

「政府が提案した枠組みが既存の法律や規制当局に依存しているため、データ保護などの基礎となる規制がAIを適切に管理することがさらに重要になっている」と続けている。 「エイダ・ラブレス研究所の委託を受けた法的助言…既存の自動処理保護措置では、実際にはローンの申請など、日常的なサービスを利用する人々に十分な保護を提供できない可能性があることが示唆されています。」

「総合的に考えると、この法案の変更は、AIに対する政府の規制提案をさらに損なう危険がある」と報告書は付け加えている。

したがって、研究所の最初の勧告は、政府に対し、データ保護改革法案のうち、「説明責任の枠組みの変更など、AIの安全な開発、展開、使用を損なう可能性がある」要素について考え直してください。 また政府に対し、他の立法上のギャップを埋め、国民に新たな権利と保護を導入することを目的として、英国法の既存の権利と保護を検討するよう検討を拡大することを勧告している。必要に応じて、AI に基づいた決定の影響を受けます。

報告書のその他の推奨事項には、規制当局に「厳格な透明性と説明責任義務」を含む前述の原則を考慮する法的義務を導入し、AI関連の危害に対処するためのより多くの資金/リソースを提供することが含まれている。 規制当局に共通の一連の権限の導入を検討している。 事前に、開発者に焦点を当てた規制機能。 そして政府は、AIの悪影響を受ける人々を支援するためにAIオンブズパーソンを設立すべきかどうか検討すべきだと主張した。

同研究所はまた、AIと責任に関する法律を明確にするよう政府に勧告しているが、これはEUがすでに連続的に前進しているもう一つの分野である。

基礎的なモデルの安全性については、OpenAI の ChatGPT などの生成 AI ツールに関する話題のおかげで、最近英国政府から特に関心と注目を集めている分野ですが、同研究所は政府がさらに前進する必要があると考えており、英国を拠点とするモデルの安全性開発者を推奨しています。規制当局が非常に急速に変化する技術を把握しやすくするために、基礎モデルには必須の報告要件を与えるべきである。

さらに、OpenAI、Google DeepMind、Anthropic などの主要な基礎モデル開発者は、自社 (または協力しているサブプロセッサ) が新しいモデルの大規模なトレーニング実行を開始する際に、政府に通知することを義務付ける必要があると提案しています。

「これにより、政府は AI 機能の進歩について早期に警告することができ、政策立案者や規制当局は、AI 機能の進歩に気付かずにその影響に備えることができます。」と報告要件には、次のような情報へのアクセスなどの情報も含めるべきであると付け加えています。モデルのトレーニングに使用されるデータ。 社内監査の結果。 そしてサプライチェーンデータ。

もう 1 つの提案は、政府が AI 研究開発のトレンドに対する政府自身の理解を強化するために、小規模なパイロット プロジェクトに投資することです。

エイダ・ラブレス研究所の副所長、マイケル・バートウィッスル氏は声明で報告書の調査結果について次のようにコメントした。

政府は、英国にはAI規制において世界のリーダーとなるまたとない機会があることを正当に認識しており、首相はこの問題における世界的なリーダーシップで称賛されるべきである。 しかし、AI規制に対する英国の信頼性は、国内で世界をリードする規制体制を実現する政府の能力にかかっています。 国際的な調整に向けた取り組みは非常に歓迎されますが、それだけでは十分ではありません。 AI に真剣に取り組んで世界的な目標を達成したいのであれば、政府は国内の規制提案を強化する必要がある。

コメントする

xxxbangole xtubemovies.info sex aunties stories
masala xvideos ultratube.mobi kerala girl sex
sexmove.com indianfuckblog.com new girl mms
سكس صبايا secretsporn.com مشاهدة افلام سيكس
pantyhose hentai hentai-site.net kawaii neko hentai
janani iyer hot pornofantasy.net tamilnadu sexy photo
indian sexy girls xbeegtube.mobi redtube,com
aishwarya rai sex image hd dalporn.net seksividos
كساس عرب annarivas.net فيلم منى فاروق
xnxxmovies.com redwap2.com debonairblogs.com
shakeela porn desisexy.org radhika kumaraswamy sex videos
نيك اون لاين thepornoexperience.com سكس اوربى مترجم
افلام s sexoyporno.org سكس مصري بلدى
www.indiansex..com tubster.net mrunmayi
abarenbow tengu hentainaked.com hunter x hunter hentai comics