数カ月の遅れを経て、ニューヨーク市は本日、アルゴリズムを利用して従業員の募集、採用、昇進を行う雇用主に対し、そのアルゴリズムを独立した監査に提出し、その結果を公表することを義務付ける法律の施行を開始した。 この種の法律としては全米初であり、ニューヨーク市地方法 144 号は、この種のアルゴリズムを使用する企業に対し、従業員や求職者への開示を義務付けています。
企業が公表しなければならない報告書には、少なくとも、自社が使用しているアルゴリズムと、さまざまな人種、民族、性別の候補者が当該アルゴリズムから受け取る可能性が高い「平均スコア」をスコア形式で記載する必要がある。 、分類または推奨。 また、アルゴリズムの「影響率」もリストする必要があります。法律では、これは、特定のカテゴリー(黒人男性候補者など)のすべての人々のアルゴリズムによって与えられた平均スコアを、最もスコアの高いカテゴリーの人々の平均スコアで割ったものと定義されています。 。
コンプライアンスに違反していることが判明した企業には、最初の違反で 375 ドル、2 回目の違反で 1,350 ドル、3 回目以降の違反で 1,500 ドルの罰金が科せられます。 企業が法律に違反してアルゴリズムを使用する日ごとに、十分な開示を提供しない場合と同様に、個別の違反となります。
重要なことは、市議会によって承認され、ニューヨーク市消費者・労働者保護局によって施行される地方法第 144 号の適用範囲が、ニューヨーク市を拠点とする労働者を超えて拡大していることです。 市内で活動しているか、仕事に応募している限り、新法による保護を受ける資格がある。
多くの人はそれを時代遅れだと見ています。 人材採用技術ベンダーである Applied の CEO、Khyati Sundaram 氏は、特に人材採用 AI には既存のバイアスを増幅する可能性があり、その過程で雇用と賃金の両方の格差が悪化する可能性があると指摘しました。
「雇用主は候補者を独自に採点したりランク付けするためにAIを使用することは避けるべきです」とスンダラム氏は電子メールでTechCrunchに語った。 「私たちはまだ、仕事の世界にすでに存在するバイアスを反映したり永続させたりすることなく、アルゴリズムが独自にこれらの決定を下すことを信頼できる、あるいは信頼すべき段階に達していません。」
採用アルゴリズムに偏見が浸透している証拠を探す必要はありません。 Amazonは2018年に求人エンジンの利用を廃止した。 女性候補者を差別する。 そして、 2019年 学術研究では、人材採用におけるAIによる反黒人偏見が明らかになりました。
他の場所では、アルゴリズムが求職者にメガネやスカーフを着用しているかどうかなどの基準に基づいて異なるスコアを割り当てることが判明しています。 黒人っぽい名前を持っていること、女子大学について言及していること、または特定のファイル形式を使用して履歴書を提出したことを理由に応募者にペナルティを与える。 そして、キーボードを操作する能力に制限がある身体障害を持つ人々に不利な立場を与えます。
偏見は根深いものになる可能性があります。 2022 年 10 月 勉強 ケンブリッジ大学の研究結果は、客観的で実力主義の評価を提供していると主張する AI 企業が誤りであることを示唆しており、理想的な従業員は歴史的に性別と人種の影響を受けているため、性別と人種を排除するためのバイアス対策は効果がないと主張しています。
しかし、リスクによって導入が遅れているわけではありません。 ある調査によると、4 社に 1 社近くの組織がすでに AI を活用して採用プロセスをサポートしています。 2月 2022年調査 人材マネジメント学会より。 従業員 5,000 人以上の雇用主では、この割合はさらに高く 42% です。
では、雇用主は具体的にどのような形式のアルゴリズムを使用しているのでしょうか? それは様々です。 より一般的なものとしては、キーワードに基づいて履歴書やカバーレターを並べ替えるテキスト アナライザーがあります。 しかし、特定の特徴を持つ応募者を選別するためにオンライン面接を実施するチャットボットや、候補者の会話パターンや表情から問題解決スキル、適性、「文化的適合性」を予測するように設計された面接ソフトウェアもあります。
実際、採用および採用アルゴリズムの範囲は非常に広範囲に及ぶため、一部の組織は地方法 144 が十分に行き届いているとは考えていません。
アメリカ自由人権協会のニューヨーク支部であるNYCLUは、この法律は候補者と労働者を保護するには「はるかに及ばない」と主張している。 NYCLUのシニアプライバシーおよびテクノロジーストラテジストであるダニエル・シュワルツ氏は、ポリシーの中で次のように述べています。 メモ 地方法 144 は、書かれたとおり、雇用アルゴリズムのサブセットのみをカバーすると理解される可能性があります。たとえば、ビデオや音声のインタビューからテキストを書き起こすツールは除外されます。 (音声認識ツールにはよく知られたバイアスがあることを考慮すると、 問題、それは明らかに問題があります。)
「…提案されたルール [must be strengthened to] ~を広範囲にカバーすることを保証する [hiring algorithms]、バイアス監査要件を拡大し、影響を受ける人々に透明性と有意義な通知を提供して、 [algorithms] ニューヨーク市の差別禁止法をデジタル的に回避する行為をしないでください」とシュワルツ氏は書いた。 「候補者と労働者は、差別的なアルゴリズムによる審査を受けることを心配する必要はありません。」
これと並行して、業界は自主規制に向けた予備的な取り組みに着手している。
2021 年 12 月には、アルゴリズムによるバイアス、特に採用におけるバイアスを検出し、それに対抗するための AI の評価およびスコアリング システムを開発することを目的とした Data & Trust Alliance が発足しました。 このグループは、ある時点では、CVS Health、Deloitte、General Motors、Humana、IBM、Mastercard、Meta、Nike、Walmart をメンバーに数えており、 重要 マスコミ報道。
当然のことながら、スンダラム氏はこのアプローチを支持しています。
同氏は、「規制当局が採用AIの最悪の行き過ぎを追いついて抑制することを期待するのではなく、採用プロセスでAIを使用する際に警戒し、慎重になるのは雇用主にかかっています」と述べた。 「AI は、その使用を規制する法律を制定できないほどのスピードで進化しています。 最終的に可決される法律(ニューヨーク市も含む)は、この理由から非常に複雑になる可能性が高い。 これにより、企業はさまざまな法律上の複雑な問題を誤解したり見落としたりするリスクにさらされることになり、ひいては社会から疎外された候補者が今後も職務から無視されることになるだろう。」
もちろん、企業が使用または開発している AI 製品の認証システムを開発させるのは、いきなり問題があると多くの人が主張するでしょう。
批評家によれば、特定の分野では不完全ではあるが、地方法 144 する テスト対象のアルゴリズムの使用、開発、配布に関与しておらず、テストのためにアルゴリズムを提出している企業と関係のない独立した主体によって監査が実施されることを要求します。
地方法第 144 号は最終的に変化に影響を与えるのでしょうか? それを言うのは時期尚早です。 しかし確かに、その施行の成功、あるいは失敗は、他の法律に影響を与えるだろう。 最近の記事で述べたように、 ナードウォレット, ワシントンD.C.は、自動化された意思決定アルゴリズムにおけるバイアスを防ぐ責任を雇用主に負わせる規則を検討している。 カリフォルニア州では、雇用におけるAIの規制を目的とした2つの法案がここ数年以内に提出された。 そして12月下旬には、差別を最小限に抑えるために採用決定におけるAIの使用を規制する法案がニュージャージー州で提出された。