ニュース: ヨルダンでどの世帯が経済援助を受けるべきかを決定するため、世界銀行が資金提供しているアルゴリズムが、資格を持つべき人々を除外している可能性が高いことが、ヒューマン・ライツ・ウォッチの調査で判明した。
なぜそれが重要なのか: この組織は、バイアスと不正確さをもたらすアルゴリズム システムのいくつかの根本的な問題を特定しました。 それは、57の社会経済指標に重みを割り当てる秘密の計算を使用して、援助を申請する家族を最も貧しいものから最も貧しいものまでランク付けします。 申請者らは、この計算は現実を反映しておらず、人々の経済状況を過度に単純化していると主張している。
全体像: AI倫理研究者らは、福祉システムにおけるアルゴリズムの使用増加について、さらなる精査を求めている。 報告書の執筆者の一人は、その調査結果はアルゴリズムによる意思決定を利用する政府プログラムの透明性を高める必要性を示していると述べている。 全文を読んでください。
—テート・ライアン=モズリー
私たちは皆、AI の無料データワーカーです
私たちのお気に入りのチャットボットを強化する派手な AI モデルには、多大な人間の労力が必要です。 最も優れたチャットボットでさえ、作成者が望むように動作するには何千時間もの人間の作業時間が必要ですが、それでも信頼性は低くなります。
ヒューマン データ アノテーターは、大規模で洗練されたように見える意思決定を行うために必要な重要なコンテキストを AI モデルに提供し、高い目標と厳しい期限を達成するために信じられないほど速いペースで作業することがよくあります。 しかし、意識しているかどうかに関係なく、私たちは皆、大手テクノロジー企業の無給データ労働者であると主張する研究者もいます。 全文を読んでください。