如果給你開診斷書的不是醫(yī)生,而是AI,你會(huì)接受嗎?
就在人們熱議以ChatGPT為代表的生成式AI將如何取代人們的工作時(shí),大家發(fā)現(xiàn),醫(yī)院,似乎成了這類人工智能產(chǎn)品的一個(gè)“禁區(qū)”。
生成式AI可能掌握比單個(gè)醫(yī)生更多的信息,從而有更多的“經(jīng)驗(yàn)”,但是,醫(yī)生的決定往往事關(guān)道德,AI很難從道德角度來做決定。
【資料圖】
也有醫(yī)生贊成在醫(yī)院中使用AI技術(shù)的。斯坦福大學(xué)醫(yī)學(xué)院教授、曾任擁有超過1200萬患者的美國醫(yī)療集團(tuán)Kaiser Permanente首席執(zhí)行官的Robert Pearl說:
Pearl認(rèn)為,ChatGPT可以幫助醫(yī)生來撰寫患者的臨床報(bào)告、診斷書,甚至在和患者交流遇到困難時(shí)向醫(yī)生提供建議。在他看來,生成式AI對(duì)醫(yī)學(xué)發(fā)展來說是好事。
醫(yī)學(xué)專業(yè)人士希望生成式AI的語言模型可以挖掘數(shù)字診療檔案中的有用信息,或者為患者提供簡潔明了的專業(yè)解釋,但也有人擔(dān)心這些技術(shù)會(huì)蒙蔽醫(yī)生的雙眼或提供不準(zhǔn)確的回應(yīng),從而導(dǎo)致錯(cuò)誤的診斷或治療計(jì)劃。
開發(fā)AI技術(shù)的公司已制定了雄心勃勃的進(jìn)駐醫(yī)療行業(yè)的計(jì)劃。去年,微軟研究院推出了BioGPT,這是一種在一系列醫(yī)療任務(wù)上取得高分的語言模型,OpenAI、馬薩諸塞州總醫(yī)院和AnsibleHealth共同完成的一篇論文聲稱,ChatGPT可以通過美國執(zhí)業(yè)醫(yī)師執(zhí)照考試,分?jǐn)?shù)超過及格線60分。幾周后,谷歌和旗下的DeepMind的研究人員推出了Med-PaLM,它在同一考試中達(dá)到了67%的準(zhǔn)確率——這一結(jié)果雖然振奮,但谷歌當(dāng)時(shí)表示,“仍然不如臨床醫(yī)生”。微軟和全球最大的醫(yī)療保健軟件供應(yīng)商之一Epic Systems宣布計(jì)劃使用支持OpenAI的GPT-4來搜索電子診療檔案。
研究AI對(duì)醫(yī)療保健影響的哈佛大學(xué)公共衛(wèi)生講師Heather Mattie認(rèn)為,人們需要破除對(duì)AI的迷信,即必須認(rèn)識(shí)到AI不可能是100%正確的,并且可能會(huì)產(chǎn)生有偏見的結(jié)果。她認(rèn)為,如果有這樣的認(rèn)識(shí),AI將成為醫(yī)生們很好的助手。
她尤其擔(dān)憂的是,AI在心腦血管疾病和重癥監(jiān)護(hù)方面是否會(huì)給出錯(cuò)誤答案,對(duì)其他臨床領(lǐng)域直接應(yīng)用AI,她也表示擔(dān)心,因?yàn)橛袝r(shí)候AI會(huì)捏造事實(shí),并且不清楚它所借鑒的信息是否已經(jīng)過時(shí)。因此她認(rèn)為,如果醫(yī)生對(duì)AI生成的答案不進(jìn)行事實(shí)核查和鑒別,則很有可能出現(xiàn)誤診。
此外,一些倫理學(xué)家擔(dān)心,當(dāng)醫(yī)生遇到艱難的道德決定時(shí),比如手術(shù)是否能夠提高患者的存活率和存活時(shí)間,AI未必給出符合倫理的答案。
英國愛丁堡大學(xué)技術(shù)道德未來中心的倫理學(xué)家Jamie Webb說:
去年,Webb參與的一個(gè)團(tuán)隊(duì)得出結(jié)論,AI系統(tǒng)很難可靠地平衡不同的道德原則,如果醫(yī)生和其他工作人員過度依賴機(jī)器人而不是自己思考棘手的決定,他們可能會(huì)遭受“道德去技能化” .
醫(yī)生們之前曾被告知,AI將徹底改變他們的工作,結(jié)果卻大失所望。
今年2月,在哈佛大學(xué)舉行的一次關(guān)于AI在醫(yī)學(xué)領(lǐng)域的潛力的討論會(huì)上,初級(jí)保健醫(yī)生Trishan Panch回憶說,當(dāng)時(shí)正是ChatGPT火熱之際,他在社交媒體上看到了一份由ChatGPT撰寫的診斷書。Panch回憶說,當(dāng)時(shí)興奮的臨床醫(yī)生很快在會(huì)議上承諾在他們自己的實(shí)踐中使用該技術(shù),但在使用ChatGPT到第20次左右時(shí),另一位醫(yī)生插話說,該模型生成的所有參考資料都是假的。
盡管AI有時(shí)會(huì)犯明顯的錯(cuò)誤,但Robert Pearl仍然非??春肅hatGPT等生成式AI。他認(rèn)為,在未來的幾年里,醫(yī)療保健領(lǐng)域的AI語言模型將變得更像iPhone,充滿了可以增強(qiáng)醫(yī)生能力和幫助患者管理慢性病的功能。他甚至認(rèn)為,ChatGPT這樣的AI可以幫助減少美國每年因醫(yī)療錯(cuò)誤導(dǎo)致的超過25萬例死亡。
Pearl確實(shí)認(rèn)為有些事情是AI的禁區(qū)。他說,幫助人們應(yīng)對(duì)悲傷和失落的情緒、與家人進(jìn)行臨終對(duì)話,以及一些高風(fēng)險(xiǎn)的診療手段不應(yīng)該將AI牽扯其中,因?yàn)槊總€(gè)病人的需求都不一樣:
他將ChatGPT比作一名醫(yī)學(xué)生:能夠?yàn)榛颊咛峁┳o(hù)理并參與其中,但它所做的一切都必須由主治醫(yī)師審查。
關(guān)鍵詞: