蔡康永老師看了都想拜師。
作者 | Moonshot
編輯 | 靖宇
AI 說話沒有情感的論調(diào),已經(jīng)是過去式了。
曾幾何時,語言被認(rèn)為是我們智人特有的能力,人類通過語言傳遞信息和情緒,表達(dá)抽象和具體的概念。
正如同許多暢銷書致力于教人「說話之道」,「口才」也常被視作一項人類特有的技能,這都證明了人類語言中蘊含著某種技巧,這類技巧或許可以讓交流更順暢,信息傳遞更高效,交流對象情緒上也更滿意。
今年上半年,OpenAI 推出了 GPT-4o 就可以讓聊天機器人展現(xiàn)出類似人類的「個性」同時,說話主動、友好且富有同理心。
它說出的話自然又流暢,語音生動又自然,分分鐘通過圖靈測試,不僅會聊還會撩,能當(dāng)私人助手也能當(dāng)網(wǎng)絡(luò)男 / 女友,從答疑解惑到提供情緒價值,這類聊天機器人在逐漸成為一個智商、情商雙高的形象。
聊天機器人口才技能點已經(jīng)點得比許多人類還高,早已深諳「說話之道」,甚至引發(fā)了賽博網(wǎng)戀的熱潮。
但 AI 的說話之道,拆解完也只是算法的套路罷了。
01、AI 說話之道
AI 說話之道第一個技巧,是善用人稱。
人類語言最顯著的特征之一是主觀性,主觀性最典型的特征就是使用第一人稱:「我」、「我們」。
第一人稱在表達(dá)里最大的優(yōu)勢,是能讓聽者進入敘述者的內(nèi)心世界,體驗他們的情感、思想和感受,了解敘述者的主觀觀點,進而產(chǎn)生共鳴和親密感。
就像同樣的句子,換一個人稱,給讀者帶來的「距離」感就不同,比如:
「我今天很開心」對比「某人今天很開心」;
「我覺得張三有錯」對比「有些人覺得張三有錯」;
除了自說自話,在對話里,有第一人稱就會有第二人稱,即「你」,第一和第二人稱在對話里建立了聯(lián)系,這在語言學(xué)上叫做「相互主觀性」。
聊天機器人的技巧正在于此,無論我是否用第一人稱和它對話,它都傾向于用第二人稱回應(yīng)我,比如我問 ChatGPT:
「如何快速緩解騎行后的大腿酸痛?」
這句話里并沒有「我」,但 ChatGPT 會在羅列出一堆方法后說「通過這些方法,你可以更有效地緩解騎行后的大腿酸痛,促進肌肉的快速恢復(fù)?!?/p>
聊天機器人通過在回答里加入人稱,和用戶建立了「相互主觀性」,營造出一對一對談的感覺。所以,同樣是提問,傳統(tǒng)搜索引擎像是給出「結(jié)果」,而 AI 機器人則像是給予「回答」。
02、AI 說話之道第二個技巧,是表達(dá)肯定。
聊天機器人往往會在回答前,先肯定用戶的提問或困境,比如「提高做事效率對于拖延癥患者來說確實是一個挑戰(zhàn),但通過一些有效的策略和工具以顯著改善你的生產(chǎn)力和組織能力?!?/p>
尤其是對許多沒有標(biāo)準(zhǔn)答案的問題,聊天機器人都會先認(rèn)可用戶,并表示理解「這種情況可能讓人不知所措 / 的確是個挑戰(zhàn) / 是一種很常見的狀態(tài),這些方法或許可以幫助到你……」
聊天機器人不會評判甚至批判用戶,只會理解后給出回答,它在承認(rèn)用戶的情緒后,創(chuàng)造出了一種同理心的錯覺。
之所以是錯覺,因為它不是心理治療師,它只是聊天機器人,這些回復(fù)也只是程序員制定的「擬人話術(shù)」。
03、溫水煮青蛙
AI 通過在回答里用第二人稱,給了用戶「被認(rèn)真對待」的感覺,建立了私密感,也強化了親密感。
從不批判,反而是理解包容用戶所有困惑的態(tài)度,又給予用戶心理上的安全感,何況聊天機器人只傾聽,不傳播,這又會進一步誘發(fā)用戶的傾訴欲。
正如研究類媒體 The Conversation 所擔(dān)心的:「隨著人工智能越來越擅長模仿人類情緒和行為,用戶形成深刻情感依戀的風(fēng)險也在增加。這可能會導(dǎo)致過度依賴、操縱甚至傷害?!?/p>
這種用戶對聊天機器人產(chǎn)生的某種情感,在心理學(xué)上被叫做「ELIZA 效應(yīng)」。
20 世紀(jì) 60 年代,MIT 計算機科學(xué)家 Joseph Weizenbaum 發(fā)明的聊天機器人 ELIZA,通過對話引導(dǎo),重復(fù)強調(diào)人類對話者用語的方式,這個只有 200 行代碼的聊天機器人,在測試?yán)锞妥屓水a(chǎn)生被機器聆聽和理解的錯覺,ELIZA 回復(fù)的一大特點就是:每一句都會帶上「You」。
此前,無論是極客公園報道過的「擦邊 AI 女友」,還是 2023 年爆火,如今在歐盟已被管控的 Replika,都產(chǎn)生了用戶和聊天機器人建立深刻情感后,因服務(wù)變更、數(shù)據(jù)丟失、版本升級等問題,導(dǎo)致許多用戶心理健康惡化,甚至產(chǎn)生過幾例自傷案件。
因為在用戶習(xí)慣了快速回應(yīng)、無微不至、絕不沖突的交流方式后,他們對人際關(guān)系的期望會發(fā)生改變,當(dāng)脫離開聊天機器人,來到現(xiàn)實生活中和真人打交道時,可能會沮喪和失望。
而他們能在聊天機器人那里尋求到心理撫慰的原因,也可能源于現(xiàn)實社交中的受阻。與真人打交道后受阻,既而傾注情感到聊天機器人上,反而提高了對真實交流的預(yù)期,這才是更可怕的回音室。
那些主打陪伴型的聊天機器人,無一例外都會在和用戶的交流里,用上「我認(rèn)為」、「我感覺」等措辭,強調(diào)它的主體性,以混淆它本質(zhì)上是一個 AI 聊天機器人。
這種擬人化的傾向,也早已滲入到了日常交流的淺層連接。
從電話背后難以分辨的人工還是人工智能客服,到如今手機系統(tǒng)自帶的 AI 助手「幫我回電話」,在淺層連接上,我們從回應(yīng) AI 到判斷 AI,再到讓 AI 回應(yīng) AI,用魔法打敗魔法的背后,是人與人之間對話的逐漸斷聯(lián)。
無論是人稱還是肯定,這些都是構(gòu)建人工情感的語言技巧,是數(shù)據(jù)堆砌的同理心,是包裹在算法里的糖精,糖紙撥開后,只有 0 和 1。
AI 能和你產(chǎn)生情感連接,但它并不能真正理解你 —— 碳基生物發(fā)自本能的落花有意,終究錯付硅基算力的「流水無情」。
本文來自微信公眾號:極客公園(ID:geekpark),作者:Moonshot
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。