EU の新しいコンテンツ モデレーション法、 デジタル サービス法、大規模な技術プラットフォームで使用されるデータとアルゴリズムの年次監査要件が含まれており、EU の次期 AI 法では、当局が AI システムを監査することも許可される可能性があります。 米国国立標準技術研究所も 推奨 ゴールド スタンダードとしての AI 監査。 シンクタンクのブルッキングス研究所で AI ガバナンスを研究している Alex Engler は、これらの監査が、化学プラントなどの他のリスクの高いセクターで見られるような検査のように機能するという考えです。
問題は、アルゴリズム監査に対する今後の需要を満たすのに十分な独立した請負業者が存在しないことであり、企業はシステムへのアクセスを彼らに与えることに消極的である、と AI の説明責任を専門とする研究者 Deborah Raji と彼女の共著者は主張している。 紙 昨年6月から。
それが、これらの大会が育成したいものです。 AI コミュニティの希望は、これらの監査を実行するためのスキルと経験を開発するために、より多くのエンジニア、研究者、および専門家を導くことです。
これまでのところ、AI の世界における限られた精査の多くは、学者またはテクノロジー企業自身によるものです。 このようなコンテストの目的は、AI の監査を専門とする専門家の新しいセクターを作成することです。
Twitterの倫理チームのディレクターであるRumman Chowdhuryは、次のように述べています。 Bias Buccaneers のリーダーである機械学習の透明性と説明責任。 これらの人々には、新しいスキルを習得したいハッカーやデータ サイエンティストが含まれる可能性があると彼女は言います。
Bias Buccaneers のバウンティ コンテストの背後にあるチームは、これが最初のコンテストになることを望んでいます。
このようなコンテストは、機械学習コミュニティが監査を行うインセンティブを生み出すだけでなく、「監査の最適な方法と、どのような種類の監査に投資する必要があるか」についての共通の理解を促進します。非営利の AI 研究所。
モントリオール AI 倫理研究所の創設者で、スタンフォード大学の AI 監査チャレンジで審査員を務めた Abhishek Gupta 氏は、この取り組みは「素晴らしいものであり、非常に必要とされています」と述べています。
「システムに目を向けるほど、欠陥のある場所を見つける可能性が高くなります」と Gupta 氏は言います。