今月上旬、 米国連邦取引委員会(FTC)委員長のリナ・カーン氏は次のように書いています。 エッセイ の ニューヨークタイムズ AIの規制に対する当局の取り組みを確認した。 しかし、FTCが緊急に規制する必要があるとカーン氏が言及しなかったAIアプリケーションが1つあった。それは自動雇用システムだ。 これらの複雑さは、単に履歴書を解析してランク付けするだけのツールから、候補者にゴーサインを出し、不適格とみなした応募者を廃棄するシステムまで多岐にわたります。 働くアメリカ人は、雇用されたければそれらを使用することが義務付けられることが増えている。
私の最近の本の中で、 定量化された労働者, 私は、米国の労働者は職場のAI技術によって数が減り、その中でも自動雇用システムが主力であると主張する。 これらのシステムは、応募者の人間的経験のゲシュタルトを無視して、応募者をスコアやランクに引き下げます。 場合によっては、人種、年齢、性別で人を分類することさえありますが、これは雇用の意思決定プロセスの一環として法的に禁止されています。
皮肉なことに、これらのシステムの多くは 偏見のないものとして宣伝される または差別的な雇用の可能性を減らすことが保証されます。 しかし、そのようなシステムは規制が非常に緩いため、 雇用機会均等を否定する 人種、年齢、性別、障害などの保護カテゴリーに基づいて。 たとえば、2022 年 12 月には、 女性トラック運転手組合がメタを告訴、フェイスブックは「ユーザーの性別と年齢に基づいて求人広告を選択的に表示しており、特に歴史的に女性を排除してきた業界では、高齢の労働者は広告を見る可能性がはるかに低く、女性はブルーカラーのポジションの広告を見る可能性がはるかに低い」と主張している。 これは欺瞞的です。 さらに、これは求職者にとっても雇用主にとっても同様に不公平です。 雇用主は雇用差別に対する責任を軽減するために自動雇用システムを購入し、それらのシステムのベンダーは有効性と公平性の主張を実証する法的義務を負っています。
この法律は自動雇用システムをFTCの管轄下に置いているが、FTCはこれらのシステムの提供者が自社の商品をどのように宣伝すべきかについての具体的なガイドラインをまだ発表していない。 それは要求することから始めるべきです 監査 自動雇用プラットフォームが雇用主との約束を確実に履行するようにするためです。 これらのプラットフォームのベンダーは、宣伝されているように、自社のシステムが雇用の意思決定におけるバイアスを軽減していることを証明する明確な監査記録を提供する義務を負うべきである。 これらの監査では、プラットフォームの作成時に設計者が雇用機会均等委員会 (EEOC) のガイドラインに従っていることを示すことができる必要があります。
また、EEOC と協力して、FTC は自動採用システムが厳格な監査プロセスに合格したことを証明するために使用される公正自動採用マークを確立する可能性があります。 インプリマトゥールとして、このマークは消費者、つまり応募者と雇用主の両方にとって、品質を示す有用なシグナルとなるでしょう。
FTCはまた、AI対応オンライン応募システムの消費者である求職者が連邦信用報告法(FCRA)に基づいて訴訟を起こすことも認めるべきである。 以前は、FCRA はビッグ 3 信用機関にのみ適用されると考えられていましたが、よく読んでみると、この法律は「経済的決定」に関する報告書が作成されるたびに適用される可能性があることがわかります。 この定義によれば、オンラインの自動採用プラットフォームによって作成された応募者プロフィールは「消費者レポート」であり、これは、それらを作成したエンティティ (オンライン採用プラットフォームなど) が信用調査機関とみなされます。 FCRA の下では、これらの報告書の対象者は誰でも、報告書を作成した機関に結果を確認し、修正または修正を要求するよう請願することができます。 ほとんどの消費者は、自分たちにこれらの権利があることを知りません。 FTC は、申請者がこれらの権利を利用できるように、これらの権利について通知するための教育キャンペーンを開始する必要があります。