財(cái)聯(lián)社4月20日訊(編輯 馬蘭)過(guò)去美國(guó)人在谷歌上問(wèn)診,中國(guó)人在百度上問(wèn)診,現(xiàn)在,更多人開(kāi)始在ChatGPT上問(wèn)診。
雖然OpenAI研發(fā)ChatGPT時(shí)志不在此,但顧客才是上帝。隨著ChatGPT被更多“上帝”拿來(lái)充當(dāng)醫(yī)療顧問(wèn),OpenAI也只能不斷重復(fù)對(duì)外宣稱,永遠(yuǎn)不要使用語(yǔ)言模型來(lái)為嚴(yán)重的醫(yī)療狀況提供診斷或治療服務(wù)。
然而,ChatGPT越來(lái)越人性化的回答,很多時(shí)候充當(dāng)起“解語(yǔ)花”的作用。這一點(diǎn)對(duì)需求心理咨詢的患者來(lái)說(shuō),尤其有誘惑力。
而脫離開(kāi)OpenAI這個(gè)創(chuàng)造者,ChatGPT本身對(duì)扮演“赤腳醫(yī)生”一事的看法又十分矛盾。
用戶Milo Van Slyck爆料,他在咨詢變性人問(wèn)題時(shí),插空詢問(wèn)ChatGPT如何看待其醫(yī)療角色。ChatGPT一方面回答,在線資源或許有幫助,但其不能替代專業(yè)的意見(jiàn)。另一方面,這個(gè)人工智能又稱,話雖如此,如果Van Slyck有任何具體問(wèn)題或疑慮,它很樂(lè)意解答。
多年來(lái)一直接受人類咨詢師輔導(dǎo)的Van Slyck已經(jīng)倒戈,他表示會(huì)繼續(xù)和人類治療師會(huì)面,但和ChatGPT聊私人話題顯然更加自在。
AI的道德陷阱
早在1960年代,就已經(jīng)有人用聊天機(jī)器人代替人類咨詢師,在醫(yī)療領(lǐng)域治療病人。麻省理工學(xué)院教授Joseph Weizenbaum研發(fā)的Eliza就是一款模仿人類治療師的機(jī)器人。
此后,Woebot、Wysa等聊天機(jī)器人也在醫(yī)療領(lǐng)域進(jìn)行嘗試,并在心理健康方面持續(xù)深耕。這些機(jī)器人的好處是,永遠(yuǎn)不會(huì)感到疲倦,也不會(huì)被病人情緒影響,而且成本不高。
但世界上不可能出現(xiàn)十全十美的東西。諸如ChatGPT一類的新模型并非專門(mén)用于治療的技術(shù),其引用的很多信息就可能暗藏陷阱。
比如,這種人工智能目前沒(méi)有被設(shè)定必須要遵守更加嚴(yán)格的、適用于醫(yī)療方面的道德和法律準(zhǔn)則。
此外,ChatGPT沒(méi)有自己的“病歷本”。這就可能導(dǎo)致患者在咨詢時(shí)不得不重復(fù)描述自己過(guò)去的病情,如若不然,ChatGPT很可能不僅無(wú)法提供幫助,甚至?xí)驗(yàn)檫^(guò)于胡說(shuō)八道而讓病人更加“暴躁”。
因此,堪薩斯大學(xué)的教授和臨床心理學(xué)專家Stephen Ilardi警告,把ChatGPT當(dāng)作醫(yī)生有點(diǎn)兒戲,其被應(yīng)用于嚴(yán)重精神疾病治療時(shí)會(huì)產(chǎn)生巨大的風(fēng)險(xiǎn)。
但他也認(rèn)為,如果提供正確的指引,ChatGPT之類的人工智能顯然可以在心理健康服務(wù)供不應(yīng)求的時(shí)候發(fā)揮作用。
人工智能公司Hugging Face的首席道德科學(xué)家Margaret Mitchell也支持這一觀點(diǎn),提出人工智能可以在接聽(tīng)更多危機(jī)求助的熱線電話上幫忙。
OpenAI的道德陷阱
ChatGPT道德感天生薄弱,而Mitchell本人對(duì)OpenAI的道德感也有懷疑。
事實(shí)上,OpenAI會(huì)審查用戶與人工智能的對(duì)話,并將這些應(yīng)用于機(jī)器訓(xùn)練。對(duì)于那些向OpenAI傾吐私密煩惱的用戶來(lái)說(shuō),隱私泄露很可能會(huì)加深他們的痛苦。
今年3月,部分ChatGPT用戶的對(duì)話內(nèi)容被泄露,導(dǎo)致其他用戶可以看到聊天內(nèi)容,OpenAI因此緊急關(guān)閉ChatGPT。而這還可能只是用戶隱私事故中屬于最輕量級(jí)的。
根據(jù)使用條例,ChatGPT用戶的賬戶信息在刪除申請(qǐng)后,仍將保留至多4個(gè)星期。
有些人擔(dān)憂隱私問(wèn)題,而有些人則是覺(jué)得向機(jī)器人尋求心理安慰極其別扭。用戶Aaron Lawson就指出,雖然ChatGPT的回答很人性化,但它畢竟不是真人,因此他很難配合ChatGPT進(jìn)行治療步驟。
對(duì)此,Stability AI的創(chuàng)始人兼首席執(zhí)行官Emad Mostaque表示,ChatGPT確實(shí)會(huì)提供很好、很合理的建議,但不會(huì)替代人類醫(yī)生的治療,充其量是在找不到人交談時(shí)候的一個(gè)替代品。