本文來自微信公眾號:SF 中文 (ID:kexuejiaodian),作者:SF
人工智能聊天機器人可以讓人們更輕松地獲得心理健康服務(wù),不過目前尚不清楚這種方法是否存在風(fēng)險。
文 | 凱特?達(dá)林(Kate Darling)
編輯 | 劉佳玉
視覺設(shè)計 | 夏夢
尋求心理醫(yī)生的幫助并非易事。近幾年,抑郁和焦慮人群顯著增加,對心理健康服務(wù)的需求巨大,精神衛(wèi)生領(lǐng)域的專業(yè)人員嚴(yán)重緊缺。而一些有心理健康問題的人又因為對心理健康問題的認(rèn)知不夠、無法承擔(dān)醫(yī)療費用、羞于宣之于口等原因,不能尋求心理醫(yī)生的幫助。那么,逐漸興起的治愈型聊天機器人,似乎可以解決上述的所有問題。
人們更愿意向聊天機器人傾訴?
美國心理療法創(chuàng)新公司的 Woebot 以及印度人工智能健康公司的 Wysa 和美國的 Youper 等治愈型聊天機器人越來越受歡迎。這些機器人學(xué)習(xí)了非常多的心理治療方法,如認(rèn)知行為療法(常見的心理治療方法,擁有大量的實證基礎(chǔ))。人機交互研究表明,人們可以與聊天機器人建立融洽的關(guān)系和信任。甚至比起相信人類心理醫(yī)生,一些人更信任聊天機器人。因為機器人并不會評價他們,所以他們更愿意向機器人傾訴。
但是,雖然聊天機器人使用的是標(biāo)準(zhǔn)的治療框架,但治療效果取決于用戶的互動情況。相比之下,人類心理醫(yī)生與患者的溝通更順暢,互動情況更好。
治愈型聊天機器人存在風(fēng)險
迄今為止,治療機器人是否有效,是否存在風(fēng)險等問題還有待進(jìn)一步研究。
2018 年,Woebot 曾因在聊天中持有錯誤的政治立場而引發(fā)爭議。這個問題已得到解決,但這絕不會是聊天機器人最后一次引發(fā)爭議。生成式人工智能方法能讓機器人的回答更靈活,但仍然存在一個問題:基于人工智能的文本系統(tǒng)包含性別歧視、種族歧視和虛假信息等內(nèi)容,沒有人能夠準(zhǔn)確預(yù)測機器人可能會說什么,這在治療環(huán)境中尤其危險。
即使有預(yù)先編寫好的、基于規(guī)則的答案,也很容易對那些尋求心理健康建議的人造成傷害,因為他們的心理狀況本身就很脆弱。例如,雖然聊天機器人可以識別含自殺傾向和想法的語言,并能想辦法阻止,但在多數(shù)情況下,機器人的回答可能會被誤導(dǎo)或誤解。
優(yōu)秀的心理醫(yī)生善于觀察和控制患者的情緒。他們能理解語義,觀察手勢,注意語氣變化,并做出專業(yè)的回應(yīng)。他們會根據(jù)患者的狀態(tài)調(diào)整治療的方式。這非常有難度,對專業(yè)性要求非常高,即使是人類心理醫(yī)生也會犯錯。
不靠譜的人類心理醫(yī)生非常危險。有的心理醫(yī)生會給出不專業(yè)的建議而加重患者的病情,有的心理醫(yī)生甚至?xí)_取錢財。但專業(yè)的心理醫(yī)生通常嚴(yán)格執(zhí)行心理醫(yī)生道德準(zhǔn)則,并盡力醫(yī)治患者。人類心理醫(yī)生可能會犯錯誤,但風(fēng)險并不大。
方法有風(fēng)險,使用需謹(jǐn)慎
治愈型聊天機器人最大的賣點是增加獲得治療的機會。降低心理健康服務(wù)的門檻無疑是有價值的,但在規(guī)模化之前,還需測試它的風(fēng)險。
一些治療機器人的設(shè)計人員聲稱聊天機器人只是為心理治療提供補充工具,并不作為心理醫(yī)生解決心理問題時的一種干預(yù)手段。它主要是為不能或不愿接受心理醫(yī)生治療的人提供一種替代方案。
治療機器人有可能會為有心理健康問題的人群提供巨大的幫助。但我們應(yīng)該警惕任何在研究不足的情況下就匆忙推向市場的產(chǎn)品,尤其是可能包含各種已知和未知危害的人工智能應(yīng)用程序。
參考文獻(xiàn):
https://www.sciencefocus.com/news/therapy-chatbots-ai-mental-health/
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。