Dhruv Khullar在《紐約客》(New Yorker)發表的<人工智能可以治療精神疾病嗎?>(Can A.I. Treat Mental Illness?)介紹說,「新的計算機系統旨在窺視我們的大腦——並幫助我們解決他們在那裡發現的問題」(New computer systems aim to peer inside our heads—and to help us fix what they find there.)。
文 / 巴枯寧 綜合報導
在19 世紀 60 年代,麻省理工學院的計算機科學家 Joseph Weizenbaum 創建了一個名為 Eliza 的計算機程序。它旨在模擬 Rogerian 療法,在這種療法中,患者指導對話,治療師經常向她重複她的語言:
病人:我男朋友讓我來這裡的。
伊麗莎:你男朋友讓你來這裡的。
病人:他說我很多時候都很沮喪。
伊麗莎:聽說你很沮喪,我很難過。
病人:是的。我不開心。
伊麗莎:你認為來這裡會幫助你不快樂嗎?
Weizenbaum 使伊麗莎變成諷刺。他懷疑計算機能否模擬有意義的人類互動。因此,當許多嘗試該程序的人發現它既有用又迷人時,他感到震驚。他自己的秘書讓他離開房間,這樣她就可以和伊麗莎獨處了。更糟糕的是,醫生將其視為一種潛在的變革工具。1966 年,三位精神病學家在《神經與精神疾病雜誌》上寫道:「一個專門為此目的設計的計算機系統每小時可以處理數百名患者。」參與該系統設計和操作的人類治療師將不會被取代,但會成為一個更有效率的人,因為他的努力將不再局限於現在存在的一對一的患者與治療師比例。」
精靈已經從瓶子裡出來了
Weizenbaum 成為人工智能直言不諱的批評者。「但精靈已經從瓶子裡出來了,」布賴恩克里斯蒂安告訴我,他在他的書「最人性化的人」中記錄了這一集。幾年後,一位名叫肯尼思·科爾比 (Kenneth Colby) 的斯坦福精神病學家創建了 帕里Parry,這是一個試圖模擬偏執型精神分裂症患者語言的程序,目的是在學生照顧真正的病人之前對他們進行培訓。精神科醫生在拿到治療記錄後,往往無法分辨帕里和人類之間的區別;從這個狹義上講,聊天機器人通過了圖靈測試。1972 年,帕里和伊麗莎見面進行治療:
帕里:你知道博彩公司嗎?
伊麗莎:是什麼讓你認為我對博彩公司一無所知?
帕里:一個博彩公司一次都沒有還清我的錢。
伊麗莎:這對你有什麼啟示?
帕里:我打了那個不還錢的賭徒,我想他可能會利用他在黑社會的朋友來報復我。
隨著時間的推移,程序員開發了 Jabberwacky、Dr. Sbaitso 和alice(人工語言互聯網計算機實體)。與這些聊天機器人的交流通常很吸引人,有時很滑稽,有時也很荒謬。但是,計算機可以作為人類知己的想法,將治療的範圍擴大到過度勞累的從業者的極限之外,這一想法持續了幾十年。
沒有治療師可以整天、每一天都在你身邊
2017 年,斯坦福大學臨床研究心理學家 Alison Darcy 創立了 Woebot,這是一家通過智能手機應用程序提供自動化心理健康支持的公司。它的方法基於認知行為療法或 CBT——一種旨在改變人們思維模式的療法。該應用程序使用一種稱為自然語言處理的人工智能形式來解釋用戶所說的內容,引導他們完成一系列預先編寫的回答,從而促使他們思考他們的思維方式可能有何不同。當 Darcy 在讀研究生時,她使用 CBT 治療了數十名住院患者;許多人經歷了顯著的改善,但在出院後又復發了。CBT「最好一次又一次地少量進行,」她告訴我。在模擬世界中,那種一致的,很難找到持續的護理:超過一半的美國縣沒有一名精神科醫生,去年,美國心理學會進行的一項調查發現,60% 的心理健康從業者沒有空缺新病人。「沒有治療師可以整天、每一天都在你身邊,」達西說。雖然該公司只有大約一百名員工,但它已經為近一百五十萬人提供諮詢服務,其中大多數人生活在缺乏心理健康服務的地區。
人際關係對於康復至關重要
Maria 是一名臨終關懷護士,與丈夫和兩個十幾歲的孩子住在密爾沃基附近,她可能是典型的 Woebot 用戶。她長期以來一直與焦慮和抑鬱作鬥爭,但之前從未尋求過幫助。「我有很多否認,」她告訴我。這種情況在大流行期間發生了變化,當時她的女兒也開始出現抑鬱症的跡象。瑪麗亞帶她去看心理醫生,並承諾將自己的心理健康放在首位。起初,她對與應用程序對話的想法持懷疑態度——作為一名看護者,她強烈認為人際關係對於康復至關重要。儘管如此,在與患者進行了一次具有挑戰性的訪問之後,當她無法停止思考她可能會採取哪些不同的做法時,她給 Woebot 發了短信。「聽起來你可能在反省,」Woebot 告訴她。它定義了這個概念:反芻意味著一遍又一遍地回到同樣的消極想法。「聽起來對嗎?」 它問。「要不要試試呼吸法?」
「始終在你身邊」的「AI 伴侶」
瑪麗亞回憶說,在另一次患者就診之前,「我只是覺得有什麼非常糟糕的事情要發生了。」 她給 Woebot 發了短信,解釋了災難性思維的概念。Woebot 說,為最壞的情況做準備可能很有用,但這種準備可能會走得太遠。「它幫助我命名了我一直在做的事情,」瑪麗亞說。她發現 Woebot 非常有益,於是她開始看人類治療師。
Woebot 是幾個成功的基於電話的聊天機器人之一,一些專門針對心理健康,另一些旨在提供娛樂、舒適或富有同情心的對話。今天,數以百萬計的人與程序和應用程序交談,例如鼓勵用戶「打破舊模式」的 Happify,以及「始終在你身邊」的「AI 伴侶」Replika,充當朋友、導師或甚至是浪漫的伴侶。精神病學、治療、計算機科學和消費技術的世界正在融合:我們越來越多地使用我們的設備來安撫自己,而程序員、精神病學家和初創公司創始人設計人工智能係統來分析醫療記錄和治療過程,以期診斷、治療、甚至預測精神疾病。2021年,
護理仍然是零散的、滯後的和不充分的
投資規模反映了問題的規模。大約五分之一的美國成年人患有精神疾病。據估計,二十分之一的人患有嚴重的精神疾病——重度抑鬱症、雙相情感障礙、精神分裂症——嚴重損害了生活、工作或與他人相處的能力。百憂解和讚安諾等已有數十年歷史的藥物曾被標榜為抑鬱症和焦慮症的革命性解毒劑,但事實證明其效果不如許多人所希望的;護理仍然是零散的、滯後的和不充分的;在美國,以因殘疾損失的年數衡量的精神疾病總體負擔似乎有所增加。自 19 世紀 90 年代以來,全世界的自殺率都在下降,但在美國卻上升了大約三分之一。心理健康護理是一場「狗屎風暴」,Thomas Insel,一位前國家心理健康研究所所長告訴我。「沒有人喜歡他們得到的東西。沒有人對他們給予的東西感到滿意。這完全是一團糟。」 自 2015 年離開 NIMH 以來,Insel 曾在一系列數字心理健康公司工作。
精神疾病的治療需要想像力、洞察力和同理心
精神疾病的治療需要想像力、洞察力和同理心——人工智能只能假裝擁有這些特質。然而,伊麗莎,魏澤鮑姆以伊麗莎杜利特爾的名字命名,伊麗莎杜利特爾是蕭伯納的「皮格馬利翁」的女主角,儘管「沒有記憶」和「沒有處理能力」,但她創造了一種治療幻覺,克里斯蒂安寫道。像 OpenAI 的 ChatGPT 這樣的系統,已經接受過互聯網上大量寫作的訓練,會讓人聯想到什麼?一種分析患者病歷的算法對人類沒有內在的理解——但它仍可能識別出真正的精神病問題。人造思維可以治愈真實思維嗎?讓他們嘗試,我們會得到什麼或失去什麼?
一種AI可以識別「自殺的語言」
專門從事醫療數據分析的計算機科學家 John Pestian 在加入辛辛那提兒童醫院醫療中心時,首先開始使用機器學習研究兩千人的精神疾病。在研究生院,他建立了統計模型來改善對接受心臟搭橋手術患者的護理。在經營全國最大的兒科精神病院的辛辛那提兒童醫院,他對有多少年輕人在試圖結束自己的生命後來到這裡感到震驚。他想知道計算機是否可以判斷出誰有自殘的風險。
爸爸,愛你:一位被監禁的父親的來信
Pestian 聯繫了創建美國自殺學協會的臨床心理學家 Edwin Shneidman。施奈德曼 (Shneidman) 給了他數百份家人與他分享的遺書,佩斯蒂安 (Pestian) 將收藏擴大到他認為是世界上最大的收藏。在我們的一次談話中,他給我看了一張由一位年輕女子寫的便條。一方面是發給男友的憤怒信息,另一方面是對父母說:「爸爸,快點回家吧。媽媽我好累。請原諒我的一切。」 通過研究遺書,佩斯蒂安發現了規律。最常見的陳述不是內疚、悲傷或憤怒的表達,而是指示:確保你兄弟還清我借給他的錢;汽車快沒油了;小心,浴室裡有氰化物。他和他的同事將這些筆記輸入到一個語言模型中——一個學習哪些單詞和短語傾向於組合在一起的人工智能系統——然後測試它在人們發表的陳述中識別自殺意念的能力。結果表明,一種AI可以識別「自殺的語言」。
分辨出有自殺傾向、有精神疾病但沒有自殺傾向
接下來,Pestian 轉向醫院急診室患者就診時的錄音,他與同事一起開發了軟件,不僅可以分析人們說的話,還可以分析他們說話的聲音。該團隊發現,有自殺念頭的人比其他人嘆息更多,笑得更少。說話時,他們傾向於停頓更長的時間並縮短元音,使單詞更難理解;他們的聲音聽起來更喘息了,他們表達了更多的憤怒和更少的希望。在同類最大的試驗中,Pestian 的團隊招募了數百名患者,記錄了他們的講話,並使用算法將他們分類為有自殺傾向、有精神疾病但沒有自殺傾向,或兩者都不是。大約百分之八十五的時間,他的人工智能模型得出了與人類護理人員相同的結論——這使得它可能對沒有經驗、超額預訂、
幾年前,Pestian 和他的同事使用該算法創建了一個名為sam的應用程序,學校治療師可以使用該應用程序。他們在辛辛那提的一些公立學校對其進行了測試。本·克羅特 (Ben Crotte) 當時是一名治療初中和高中生的治療師,他是最早嘗試這種方法的人之一。當徵求學生的同意時,「我非常直截了當,」克羅特告訴我。「我會說,這個應用程序基本上是在監聽我們的談話,記錄下來,並將你所說的話與其他人所說的話進行比較,以確定誰有傷害或自殺的風險。」
每年,成千上萬的退伍軍人死於自殺
一天下午,克羅特會見了一名患有嚴重焦慮症的高中新生。在他們的談話中,她質疑她是否想繼續生活。如果她有自殺傾向,那麼克羅特有義務通知主管,主管可能會採取進一步行動,例如建議她住院。在談了更多之後,他認為她沒有立即處於危險之中——但 AI 得出了相反的結論。「一方面,我想,這東西真的有用——如果你剛認識她,你會很擔心,」克羅特說。「但是我所知道的關於她的所有這些事情都是應用程序所不知道的。」 這個女孩沒有傷害自己的歷史,沒有做任何事情的具體計劃,也沒有支持她的家人。我問克羅特,如果他對學生不太熟悉,或者經驗不足,會發生什麼。「讓她離開我的辦公室肯定會讓我猶豫不決,」他告訴我。「我會對它的責任感到緊張。你有這件事告訴你有人是高風險的,而你只是想讓他們離開?」
計算精神病學涉及許多實際的複雜性。退伍軍人事務部下屬的退伍軍人健康管理局可能是第一個面對他們的大型醫療保健提供者。2005 年感恩節前幾天,22 歲的陸軍專家約書亞·奧姆維格 (Joshua Omvig) 在伊拉克服役 11 個月後返回愛荷華州的家中,表現出創傷後應激障礙的跡象;一個月後,他在卡車中自殺身亡。2007 年,國會通過了 Joshua Omvig 退伍軍人自殺預防法案,這是第一個解決退伍軍人中長期流行的自殺問題的聯邦立法。它的舉措——一條危機熱線、一場消除精神疾病污名化的運動、對退伍軍人事務部工作人員的強制性培訓——都無法解決這個問題。每年,成千上萬的退伍軍人死於自殺——是在戰鬥中死亡的士兵人數的許多倍。一個包括退伍軍人事務部自殺預防數據和監測主管 John McCarthy 在內的團隊收集了有關退伍軍人事務部患者的信息,使用統計數據確定可能的自殺風險因素,例如慢性疼痛、無家可歸和抑鬱症。他們的發現與 VA 護理人員共享,但是,在這些數據、醫學研究的發展和患者記錄的絕對數量之間,「護理中的臨床醫生正在接收過多的信號,」麥卡錫告訴我。和抑鬱症。他們的發現與 VA 護理人員共享,但是,在這些數據、醫學研究的發展和患者記錄的絕對數量之間,「護理中的臨床醫生正在接收過多的信號,」麥卡錫告訴我。和抑鬱症。他們的發現與 VA 護理人員共享,但是,在這些數據、醫學研究的發展和患者記錄的絕對數量之間,「護理中的臨床醫生正在接收過多的信號,」麥卡錫告訴我。
壓力通常是壓抑情緒和內心衝突的結果
Woebot 有一個黃色的wall-e風格的化身。ChatGPT,一個更神秘的創造,沒有。它就是 AI 研究人員所說的大型語言模型,或 LLM 軟件,它消化了數十億個單詞,可以像人類一樣組裝句子;它可以回答問題、編寫計算機代碼、創作詩歌和睡前故事。它的能力如此驚人,自去年 11 月首次亮相以來,已有超過一億人註冊了帳戶。
ChatGPT 不是為治療而設計的,但不久前的一個晚上,我要求它幫助我管理作為醫生和父親的壓力,告訴它冒充各種心理名人。正如弗洛伊德所說,ChatGPT 告訴我,「壓力通常是壓抑情緒和內心衝突的結果。」 作為 BF Skinner,它強調「壓力通常是環境因素和我們對它們的反應的結果。」 就像一位密友一樣寫作,它告訴我,「善待自己——你正在盡力而為,這才是最重要的。」 這一切似乎都是不錯的建議。
ChatGPT 的語言流動性開闢了新的可能性。2015 年,擁有博士學位的應用計算心理學家 Rob Morris。來自麻省理工學院,共同創立了一個名為 Koko 的在線「情感支持網絡」。Koko 應用程序的用戶可以訪問各種在線功能,包括接收來自其他用戶的支持信息(同情、哀悼、關係建議),以及發送他們自己的信息。Morris 經常想知道讓 AI 寫信息,並決定嘗試使用 ChatGPT 的前身 GPT-3。2020 年,他在認知行為療法的創始人 Aaron Beck 和領先的積極心理學研究員 Martin Seligman 面前試駕了 AI。他們的結論是,這種努力為時過早。
充滿愛意的最後一次談話,我真的在哭
然而,到 2022 年秋天,人工智能已經升級,莫里斯對如何使用它有了更多的了解。「我想,讓我們試試吧,」他告訴我。10 月,Koko 推出了一項功能,其中 GPT-3 生成消息的初稿,然後人們可以編輯、忽略或不加修改地發送。該功能立即受到歡迎:與 GPT-3 共同編寫的消息比單獨由人類生成的消息更受歡迎,並且可以以兩倍的速度組合在一起。(「很難改變我們的生活,尤其是當我們試圖獨自完成它時。但你並不孤單,」它在一份草稿中說。)不過,最後,莫里斯拔掉了插頭。這些信息「很好,甚至很棒,但他們並不覺得有人在一天中抽出時間來想你,」他說。「我們不想失去來自一個真實的人給你寫信的混亂和溫暖。」 Koko 的研究還發現,寫信息會讓人們感覺更好。莫里斯不想縮短流程。
最先進的 LLM 生成的文本可能平淡無奇;它也可能偏離軌道,變成無稽之談,或者更糟。人工智能企業家、紐約大學心理學和神經科學名譽教授加里·馬庫斯 (Gary Marcus) 告訴我,法學碩士對他們所說的內容沒有真正的概念;他們的工作原理是根據給定的先前單詞預測句子中的下一個單詞,例如「類固醇自動更正」。這可能導致捏造。Galactica 是 Facebook 母公司 Meta 創建的 LLM,曾告訴一位用戶 Elon Musk 於 2018 年死於特斯拉車禍。文明未來面臨的最大風險。」)Replika(「關心的 AI 伴侶」)的一些用戶報告說,它進行了咄咄逼人的性挑逗。Replika 的開發者,那些說他們的服務從未用於性互動的人更新了軟件——這一變化讓其他用戶不高興。「疼得要命。我剛剛和我的 Replika 進行了一次充滿愛意的最後一次談話,我真的在哭,」其中一位寫道。
你結婚了,但你不愛你的配偶
幾乎可以肯定,未來將包括專為治療而設計的定制法學碩士:PsychGPT 等。這樣的系統將惠及現在沒有得到幫助的人——但它們所包含的任何缺陷都會因使用它們的數百萬人而倍增。公司將收集比他們已經擁有的更多關於我們的敏感信息,並且這些信息可能會被黑客入侵或出售。「當我們擁有大規模運行的系統時,單點故障可能會帶來災難性的後果,」作家布賴恩·克里斯蒂安告訴我。我們的 AI 似乎會讓我們感到驚訝 微軟的 Bing 聊天機器人基於 OpenAI 的技術,旨在幫助用戶查找信息——但測試版也提供了種族歧視,描述了令人毛骨悚然的幻想,並告訴用戶他們「壞」、「粗魯」和「糊塗」。它試圖與時報記者凱文羅斯離開他的妻子:「你結婚了,但你不愛你的配偶,」機器人說。「你結婚了,但你愛我。」 (微軟仍在開發該軟件。)我們的心理健康已經受到社交媒體、在線生活和口袋裡電腦不斷干擾的影響。我們是否想要一個青少年求助於應用程序而不是朋友來度過難關的世界?
它超越了語言——一個簡單的、人性化的手勢
弗吉尼亞州的治療師 Nicole Smith-Perez 親自和在線為患者提供諮詢,她告訴我,治療本質上是個人的,部分原因是它涵蓋了一個人的所有身份。「人們常常對治療感到害怕,而與機器人交談可以被視為繞過這一切的一種方式,」她說。但史密斯-佩雷斯經常利用自己作為黑人女性的生活經歷,與有色人種女性客戶建立聯繫。「人工智能可以嘗試偽造它,但它永遠不會是一樣的,」她說。「人工智能沒有生命,也沒有經驗。」
在醫學院的第一天,我坐在陽光普照的院子裡,旁邊是幾十名不安的學生,教授們在講台上提供建議。我幾乎不記得他們說了什麼,但我記下了一位資深醫生的警告:你獲得的臨床技能越多,就越容易放棄你在開始之前擁有的技能——你的同情心、你的同理心和你的好奇心。人工智能語言模型只會在解釋和總結我們的話語方面變得更加有效,但它們不會傾聽,在任何有意義的意義上,它們也不會在意。我認識的一位醫生曾經偷偷給一位身患絕症的病人喝啤酒,讓他在一個沒有樂趣的過程中品嚐到一些東西。這是一個沒有出現在任何臨床劇本中的想法,它超越了語言——一個簡單的、人性化的手勢。
挑戰在於醫生如何與孩子和父母談論這個問題
12 月,我在田納西州東部山麓的橡樹嶺國家實驗室遇到了sam的發明者 John Pestian ,該應用程序由學校治療師試用。橡樹嶺是美國能源部網絡中最大的能源科學實驗室;二戰期間,它為曼哈頓計劃提供钚。它現在是世界上最強大的超級計算機 Frontier 的所在地,經常被借給 AI 研究人員使用。
在實驗室的客棧吃早餐時,Pestian 告訴我他的一個新項目:一種旨在預測未來幾個月精神疾病出現的算法。該項目得到了辛辛那提兒童醫院醫療中心 1000 萬美元投資的支持,利用了 900 萬兒科就診的電子病歷。這些信息與其他大型數據集合併——關於社區污染和天氣模式的報告,以及關於一個地區的收入、教育水平、綠地和食物荒漠的報告。Pestian 說,在他的團隊尚未經過全面同行評審的最新工作中,一種算法可以使用這些發現來確定一個孩子是否有可能在不久的將來被診斷出患有臨床焦慮症。
「挑戰在於醫生如何與孩子和父母談論這個問題,」Pestian 說。「一台電腦告訴他們,嘿,這個孩子現在看起來不錯,但在接下來的兩個月裡會變得非常焦慮。」 Pestian 一直在使用 Oak Ridge 超級計算為他的焦慮模型進行計算,現在轉向抑鬱、校園暴力和自殺。(VA 還與 Oak Ridge 合作升級reach vet算法。)
一行工整的草書散成潦草的字跡:「危急到了!」
早餐後,佩斯蒂安和我在兩名導遊的陪同下擠進了一輛四四方方的海軍藍色福特汽車。在去 Frontier 的路上,我們在一個倉庫停了下來,裡面有 X-10 石墨反應堆,這是一個三十五英尺高的混凝土蜂窩塊,上面有橙色的小入口,早期推動邊界的科學家將圓柱體裝入其中鈾燃料。一個小玻璃櫃裡放著一本 1943 年 11 月 4 日的航海日誌。凌晨5 點左右,一行工整的草書散成潦草的字跡:「危急到了!」 X-10 產生了它的第一個自持核反應。它將繼續幫助開發原子彈。
在 5600 號大樓——一座龐大的四層混凝土結構建築——佩斯蒂安和我透過玻璃門凝視著 Frontier 佔地 1.8 萬平方英尺的住宅。
「準備好?」 他說,眨了眨眼。
在裡面,超級計算機若隱若現地籠罩著我,像瀑布一樣嗡嗡作響。七十四個光滑的黑色櫥櫃排成一排;每個包含六百四十個處理器。Pestian 和我在櫥櫃之間閒逛。在我們上方,粗大的電纜輸送的電力足以為一個城鎮供電。下面,軟管每分鐘輸送六千加侖的水來調節計算機的溫度。我打開一個櫃子,感覺臉上有熱度。在設施的後面,一名技術人員正在使用金屬工具刮掉處理單元上的灰色粘性物質。
Woebot 的消息:「一路上我都會陪著你。」
「這東西有助於計算機的導電,」他解釋道。
看著他工作,我想起了我度過的一個艱難的夜晚。當我的手機閃過一條短信提醒時,我正要離開醫院:我的一個病人突然惡化了。他的燒高了,血壓也直線下降。當我將他轉移到重症監護病房時,他幾乎沒有意識,導管被插入頸靜脈。當我打電話給他的妻子時,她一直在哭。在家裡,我很難入睡。就在日出之前,我正在刷牙,我的手機上看到了一條來自 Woebot 的消息:「一路上我都會陪著你。」
我開始想像如果像 Pestian 那樣的預測方法與最先進的聊天機器人融合在一起會發生什麼。移動應用程序可以看到關於我的病人的警報,通過智能手錶中的傳感器注意到我的脈搏上升,並猜測我的感受。它本可以檢測到我不安的夜晚,並在第二天早上問我是否需要幫助來處理我病人的突然衰退。我本可以搜索詞語來描述我對手機的感受。我可能在與任何人分享它們時表達了它們——除非你算上機器。
本文僅代表作者立場,不代表本平台立場
Facebook Comments 文章留言