ヒューマン・ライツ・ウォッチは、バイアスと不正確さをもたらすアルゴリズムシステムのいくつかの根本的な問題を特定した。 申請者は、ランキングシステムに組み込まれる指標の 2 つとして、たとえば水と電気の消費量を尋ねられます。 報告書の著者らは、これらは必ずしも信頼できる貧困の指標ではないと結論付けている。 インタビューを受けた家族の中には、たとえその車が古くて通勤の移動に必要だったとしても、車を所有しているという事実が順位に影響を与えると信じていた人もいた。
報告書には、「このうわべだけの統計的客観性は、より複雑な現実を覆い隠している。人々が耐えている経済的圧力や、人々がどのように生きていくのに苦労しているかは、アルゴリズムには見えないことが多い」と書かれている。
報告書に引用されているように、月収250ディナール(約3万5000円)で、やりくりに苦労している2児の父親であるアブデルハマドさんは、「質問された内容は、私たちが存在する現実を反映していない」と語る。
タカフルはまた、性差別的な法規範に依存することで、既存のジェンダーに基づく差別を強化しています。 現金援助はヨルダン国民にのみ提供され、アルゴリズムが考慮する指標の 1 つは世帯の規模です。 非国民と結婚したヨルダン人男性は配偶者に市民権を引き継ぐことができるが、ヨルダン人女性はそれができない。 このような女性の場合、報告可能な世帯人数が少なくなり、援助を受けられる可能性が低くなります。
この報告書は、過去2年間にヒューマン・ライツ・ウォッチが実施した70件のインタビューに基づいており、定量的な評価ではない。なぜなら、世界銀行とヨルダン政府は57の指標のリスト、指標の重み付けの内訳を公表していないからである。 、またはアルゴリズムの決定に関する包括的なデータ。 世界銀行は私たちのコメント要請にまだ返答していない。
ヒューマン・ライツ・ウォッチのAIおよび人権研究者で報告書の著者であるエイモス・トー氏は、この調査結果はアルゴリズムによる意思決定を利用する政府プログラムの透明性を高める必要性を示していると述べた。 インタビューを受けた家族の多くは、ランキングの方法論について不信感と困惑を表明した。 「その透明性を提供する責任はヨルダン政府にあります」とトー氏は言う。
AIの倫理と公平性に関する研究者らは、福祉システムにおけるアルゴリズムの使用増加について、さらなる精査を求めている。 「アクセスを監視するという特定の目的のためにアルゴリズムを構築し始めると、いつも起こるのは、助けを必要とする人々が排除されてしまうことです」と、ニューヨーク大学教授で著書のメレディス・ブルサード氏は言う。 単なる不具合ではありません: テクノロジー業界における人種、性別、能力の偏見に立ち向かう。
「これは、資金を最も必要とする人々の資金へのアクセスを実際に制限することになる悪い設計のまた一つの例のようです」と彼女は言う。
世界銀行はこのプログラムに資金を提供し、政府の社会保護機関であるヨルダン国民援助基金が管理している。 この報告書に応えて、世界銀行は、タカフルプログラムに関する追加情報を2023年7月に発表する予定であると述べ、「普遍的な社会的保護の実施を促進するというコミットメント」を繰り返し述べた。 [and] すべての人が社会的保護を受けられるようにすること。」
組織は、 データテクノロジーの使用を奨励した タカフルのような現金給付プログラムでは、費用対効果と分配の公平性の向上を促進すると主張しています。 政府はまた、福祉詐欺を防ぐために AI 対応システムを使用しています。 アン アルゴリズムに関する先月の調査 オランダ政府は、不正である可能性が最も高い給付金申請にフラグを立てるために、人種と性別に基づく組織的な差別を明らかにしました。