AIはすでにヘルスケアで使用されています。 一部の病院では、この技術を使用して患者のトリアージを支援しています。 診断を補助したり、治療計画を立てたりするために使用する人もいます。 しかし、AI の採用の真の範囲は不明であると、英国オックスフォード大学の技術と規制の教授であるサンドラ ワクターは述べています。
「どのような種類のシステムが使用されているか、実際にはわからないことがあります」と Wachter 氏は言います。 しかし、技術が向上し、医療システムがコストを削減する方法を模索するにつれて、それらの採用が増加する可能性が高いことはわかっています.
調査によると、医師はすでにこれらの技術に多くの信頼を置いている可能性があります。 数年前に発表された研究では、腫瘍学者は皮膚がんの診断と AI システムの結論を比較するよう求められました。 彼らの多くはAIの結果を受け入れ、 それらの結果が自分の臨床的意見と矛盾していたとしても.
これらのテクノロジーに必要以上に依存するようになるという非常に現実的なリスクがあります。 そして、ここにパターナリズムが入り込む可能性があります。
「パターナリズムは、『医者が一番よく知っている』というイディオムに捕らえられる」 カナダのオンタリオ州にある病児病院の Melissa McCradden と Roxanne Kirsch は次のように書いています。 最近の科学雑誌の論文. その考えは、医療訓練を受けることで、医師は治療を受ける人のために決定を下すのに最適な人物になるというものです。その人の感情、信念、文化、その他私たちの選択に影響を与える可能性のあるものは何でもかまいません。
「パターナリズムは、AI が証拠の最高の形として位置付けられ、すべてを知っている医師をすべてを知っている AI に置き換えたときに再現できます」と McCradden と Kirsch は続けます。 彼らは、「アルゴリズム的パターナリズムへの傾向が高まっている」と述べています。 これは、さまざまな理由で問題になります。