医師は、X 線や CT スキャンなどの医療画像から人の人種を判断することはできません。 しかし、MIT の研究者を含むチームは、深層学習モデルをトレーニングして、そのような画像を分析するだけで、患者を白人、黒人、またはアジア人 (彼ら自身の説明によると) として識別することができました。それ。
解剖学的構造、骨密度、画像解像度の違いなどの変数を調べた後、研究チームは「このタスクの適切な代理を特定することはできませんでした」と述べています。 紙 共著者の Marzyeh Ghassemi、PhD ’17、EECS および医用工学および科学研究所 (IMES) の助教授。
医師は、患者が化学療法や集中治療室の対象となるかどうかなどの決定を支援するためにアルゴリズムを使用しているため、これは懸念事項である、と研究者は述べています。 現在、これらの調査結果は、アルゴリズムが「あなたが投獄されているかどうかにかかわらず、あなたの人種、民族性、性別を調べている可能性を高めています。たとえその情報がすべて隠されていても」と共著者のレオ・アンソニー・チェリ、SM ’09 プリンシパルは述べています。 IMES の研究科学者であり、ハーバード メディカル スクールの准教授でもあります。
Celi は、臨床医とコンピューター科学者は社会科学者に洞察を求めるべきだと考えています。 「これらのアルゴリズムをどのように設計、開発、展開、評価するかについて意見を述べ、フィードバックを提供する専門家の別のグループが必要です」と彼は言います。 「データを調査する前に、データサイエンティストにも尋ねる必要があります。格差はありますか? どの患者グループが疎外されていますか? これらの格差の要因は何ですか?」
多くの場合、アルゴリズムは人間がアクセスできない情報にアクセスできます。これは、専門家が意図しない結果を理解するために努力しなければならないことを意味します。 そうでなければ、アルゴリズムが医療における既存の偏見を永続させるのを防ぐ方法はありません。