病人和臨床醫生之間的人際關係至關重要。但醫病關係受到門診就診或床邊查房的有限時間以及臨床醫生在會診期間更新電子記錄的方式的影響。這些因素可能會導致人們認為臨床醫生缺乏同情心和同理心。埃里克·J·托波爾Eric J Topol發表在最新一期《柳葉刀》(The Lancet) 的<醫學中的機器和同理心>(Machines and empathy in medicine)提到,人工智慧 (AI) 可以幫助恢復醫學中基本的人性,主要是透過提供時間的禮物——這是2019 年出版的《深度醫學》一書的前提。更多時間可以幫助實現什麼目標?能夠傾聽病人的故事和深切關注的問題;仔細體檢的必要性,加強人情味與信任;真正的關懷和同情心與軟體或機器所能提供的形成鮮明對比。
人工智慧可以為病人和醫生有更多時間聚集在一起鋪平道路
人工智慧可以透過多種方式為病人創造更多時間。診所就診對話的大型語言模式 (LLM) 可以減輕許多資料文員的職能,例如健康保險預授權、後續就診安排、測試和處方。同時,用於篩檢某些醫療狀況(包括心律不整、皮膚損傷和泌尿道感染)的深度學習應用程式的出現也可以節省臨床醫生的時間。此外,透過回答醫療問題的聊天機器人,病人的自主權得到了擴展,從而減少了與醫生和護士直接聯繫的需要(圖 C)。正在開發的其他節省時間的人工智慧功能包括病人完整醫療記錄的快速合成和數據視覺化、與個人相關的醫學文獻語料庫的最新審查以及提供鑑別診斷。除了這些舉措之外,從長遠來看,目前入院的一些病人可以在家中透過經過驗證的多模式人工智慧演算法進行監測。這些進步可能會提高臨床效率和生產力。透過這些間接的方式,人工智慧可以為病人和醫生有更多時間聚集在一起鋪平道路。
人工智慧可以幫助醫生和護士與病人進行良好的互動
當作者寫《深度醫學》時,沒有預料到機器具有促進同理心的潛力。例如,一項 2023 年針對社群媒體論壇 Reddit 志工醫生和 ChatGPT 的 195 名病患問題進行的研究顯示,人工智慧的回答被認為具有同理心的可能性是醫生回答的 9.8 倍。大型語言模式還具有指導醫生的能力。Peter Lee、Carey Goldberg 和 Isaac Kohane在他們的著作《醫學中的人工智慧革命:GPT-4 和超越》中強調了此類用途,包括GPT-4 對醫生表現的審查,並建議提出更多開放式問題或對醫生的表現更加敏感。病人的擔憂。Lee 和合著者提出,「雖然人工智慧系統可能永遠無法取代醫學中的人性化接觸,但這種反應表明人工智慧可以幫助醫生和護士聚集更多的同理心和人性與病人進行良好的互動,並且繼續走一條成長和自我完善的道路。”
指導臨床醫生變得更加富有同情心和敏感
然而挑戰在於,機器促進同理心其實是偽同理心。它表面上具有同理心,但人工智慧無法真正與病人聯繫或分享經驗。大型語言模式在不理解其含義的情況下執行一項任務,從大量的訓練輸入中鸚鵡學舌地重複文本,並且由於其對單詞的關注而成為一維的。相較之下,醫生可以透過許多非語言方式表達同理心,包括目光接觸和握手。另一個缺點是目前的大型語言模式,如 Bard、LLaMA、PaLM 2 和 GPT-4,還沒有針對醫療輸入進行專門的微調。儘管 ChatGPT 與 Reddit 醫生研究相比顯示出高品質和準確的回答,但為模型提供的問題仍然有限。因此,這些模型存在錯誤答案和建議的危險,正如聊天機器人對飲食失調病人的飲食問題做出錯誤反應所看到的那樣。隨著大型語言模式的進步並接受高品質醫療投入的培訓,這個問題可能會有所改善,但不太可能根除。儘管如此,人工智慧透過審查病人互動來指導臨床醫生變得更加富有同情心和敏感,這可能會成為未來重要的教育工具,不僅對醫學生而且對所有衛生專業人員來說都是如此。
本文僅代表作者立場,不代表本平台立場
Facebook Comments 文章留言