「医学の知識と実践は時間の経過とともに変化し、進化します。ChatGPT が典型的な治療法を説明するときに、医療のタイムラインのどこから情報を引き出すかはわかりません」と彼女は言います。 「その情報は最近のものですか、それとも古いものですか?」
また、ユーザーは、ChatGPT スタイルのボットが偽造された、または「幻覚」の情報を表面的に流暢に提示する方法に注意する必要があります。アルゴリズムの応答を事実確認しないと、深刻なエラーにつながる可能性があります。 また、AI によって生成されたテキストは、微妙な方法で人間に影響を与える可能性があります。 研究 ピアレビューされていない1月に公開されたもので、ChatGPTに倫理的なティーザーを提示した.
医師であることは、百科事典的な医学知識を逆流させるだけではありません。 多くの医師は、テキストの要約などの低リスクのタスクに ChatGPT を使用することに熱心ですが、一部の生命倫理学者は、可能性が低い患者にとって手術が正しい選択であるかどうかなどの厳しい倫理的決定に遭遇したときに、医師がボットにアドバイスを求めるのではないかと心配しています。生存または回復の。
エジンバラ大学のテクノロジー未来センターの生命倫理学者であるジェイミー・ウェッブは、次のように述べています。
昨年、ウェッブと道徳心理学者のチームは、医学で使用するための AI を利用した「道徳アドバイザー」を構築するために何が必要かを調査しました。 これまでの研究 それはアイデアを提案しました。 ウェッブと彼の共著者は、そのようなシステムがさまざまな倫理原則のバランスを確実にとることは難しいだろうし、医師や他のスタッフが、トリッキーな決定を自分で考えるのではなく、ボットに過度に依存するようになると、「モラルのスキル低下」に苦しむ可能性があると結論付けました。 .
Webb 氏は、言語を処理する AI が彼らの仕事に革命をもたらすだろうと医者は以前に言われていたが、失望するだけだったと指摘している. 後 危うし! 2010 年と 2011 年に受賞した IBM のワトソン部門は腫瘍学に目を向け、AI によるがんとの闘いの有効性について主張しました。 しかし、その解決策は、最初はメモリアル・スローン・ケタリング・イン・ボックスと呼ばれていましたが、誇大宣伝が示唆するほど臨床現場では成功しませんでした. そして2020年にIBMはプロジェクトをシャットダウンしました.
誇大宣伝が空虚に鳴ると、永続的な結果が生じる可能性があります。 中に ディスカッション パネル ハーバード大学で 2 月に医療における AI の可能性について述べたとき、プライマリケア医の Trishan Panch 氏は、チャットボットのリリース直後に、病気の診断を ChatGPT に依頼した結果を共有するという同僚の投稿を Twitter で見たことを思い出しました。
興奮した臨床医はすぐに、この技術を自分の診療に使用することを誓約した. ヘルスケア ソフトウェアの新興企業である Wellframe の共同設立者である Panch 氏は、次のように述べています。
AI の際立った間違いにもかかわらず、元カイザー パーマネンテのロバート パール氏は、ChatGPT のような言語モデルに対して非常に強気なままです。 今後数年のうちに、ヘルスケアの言語モデルは iPhone のようになり、医師を補強し、患者が慢性疾患を管理するのに役立つ機能とパワーが満載されると彼は信じています。 彼は、ChatGPT のような言語モデルが、 25万人以上が死亡 医療ミスの結果として米国で毎年発生しています。
パールは、いくつかのことを AI の立ち入り禁止と考えています。 人々が悲しみや喪失感に対処する手助けをしたり、家族と終末期の会話をしたり、合併症のリスクが高い処置について話したりするのにボットを使用すべきではありません。そこに着くために。
「これは人間同士の会話です」とパール氏は言い、現在利用できるものは可能性のほんの一部にすぎないと予測しています。 「私が間違っているとすれば、それはテクノロジーの進歩のペースを過大評価しているからです。 でも、いつ見ても、思ったよりも速く動いています。」
今のところ、彼は ChatGPT を医学生に例えています。つまり、患者にケアを提供し、参加することができますが、それが行うことはすべて主治医によってレビューされる必要があります。