AI責任指令と呼ばれる新しい法案は、ほぼ同時にEUの法律になる予定のEUのAI法に歯を追加します。 AI 法は、人に危害を加える可能性が最も高い AI の「ハイリスク」な使用について、追加のチェックを要求します。これには、警察、採用、または医療のシステムが含まれます。
新しい賠償責任法案は、AIシステムによって損害を受けた後、人々や企業に損害賠償を請求する権利を与える. 目標は、テクノロジーの開発者、プロデューサー、およびユーザーに説明責任を負わせ、AI システムがどのように構築およびトレーニングされたかを説明するよう要求することです。 規則に従わないテクノロジー企業は、EU 全体の集団訴訟の危険にさらされます。
たとえば、履歴書を審査するAIシステムが自分を差別していることを証明できる求職者は、裁判所に、AI企業にシステムに関する情報へのアクセスを許可するよう強制するよう求めることができます。 この情報を武器に、彼らは訴えることができます。
この提案は、EUの立法プロセスを通過する必要があり、少なくとも2年はかかる. 欧州議会議員と EU 政府によって修正され、テクノロジー企業からの激しいロビー活動に直面する可能性があります。 請求 そのような規則はイノベーションに「身も凍るような」影響を与える可能性があります。
特に、この法案はソフトウェア開発に悪影響を与える可能性があると、Google、Amazon、Uber などの企業を代表するテクノロジー ロビー団体 CCIA のヨーロッパのポリシー マネージャーである Mathilde Adjutor 氏は述べています。
新しい規則の下では、「開発者は、ソフトウェアのバグだけでなく、ソフトウェアがユーザーのメンタルヘルスに与える潜在的な影響についても責任を問われるリスクがあります」と彼女は言います。
AI研究機関であるエイダ・ラブレス研究所の政策担当アソシエイト・ディレクターであるイモージェン・パーカー氏は、この法案は企業から消費者に権力を移すことになると述べている。 また、この法案は、AI システムが損害を与えた場合に、EU 全体で補償を求める共通の方法があることを保証するものだと、マイクロソフトと IBM をメンバーとするテクノロジー ロビー BSA の欧州政策責任者である Thomas Boué は述べています。
しかし、一部の消費者権利団体や活動家は、この提案は十分ではなく、権利を主張したい消費者にとってハードルが高すぎると述べています.