鳳凰科技 2024-12-26 01:35:03 2
作者 | Moonshot
編輯 | 靖宇
AI 說話沒有情感的論調,已經是過去式了。
曾幾何時,語言被認為是我們智人特有的能力,人類透過語言傳遞資訊和情緒,表達抽象和具體的概念。
正如同許多暢銷書致力於教人「說話之道」,「口才」也常被視作一項人類特有的技能,這都證明了人類語言中蘊含著某種技巧,這類技巧或許可以讓交流更順暢,資訊傳遞更高效,交流物件情緒上也更滿意。
當下最火的綜藝《再見愛人》中,嘉賓麥琳就因「不會說話」產生許多爭議|圖片來源:《再見愛人》
今年上半年,OpenAI 推出了 GPT-4o 就可以讓聊天機器人展現出類似人類的「個性」同時,說話主動、友好且富有同理心。
它說出的話自然又流暢,語音生動又自然,分分鐘透過圖靈測試,不僅會聊還會撩,能當私人助手也能當網路男/女友,從答疑解惑到提供情緒價值,這類聊天機器人在逐漸成為一個智商、情商雙高的形象。
聊天機器人口才技能點已經點得比許多人類還高,早已深諳「說話之道」,甚至引發了賽博網戀的熱潮。
但 AI 的說話之道,拆解完也只是演算法的套路罷了。
01
AI 說話之道
AI 說話之道第一個技巧,是善用人稱。
人類語言最顯著的特徵之一是主觀性,主觀性最典型的特徵就是使用第一人稱:「我」、「我們」。
第一人稱在表達裡最大的優勢,是能讓聽者進入敘述者的內心世界,體驗他們的情感、思想和感受,瞭解敘述者的主觀觀點,進而產生共鳴和親密感。
就像同樣的句子,換一個人稱,給讀者帶來的「距離」感就不同,比如:
「我今天很開心」對比「某人今天很開心」;
「我覺得張三有錯」對比「有些人覺得張三有錯」;
除了自說自話,在對話裡,有第一人稱就會有第二人稱,即「你」,第一和第二人稱在對話裡建立了聯絡,這在語言學上叫做「相互主觀性」。
聊天機器人的技巧正在於此,無論我是否用第一人稱和它對話,它都傾向於用第二人稱回應我,比如我問 ChatGPT:
「如何快速緩解騎行後的大腿痠痛?」
這句話裡並沒有「我」,但 ChatGPT 會在羅列出一堆方法後說「透過這些方法,你可以更有效地緩解騎行後的大腿痠痛,促進肌肉的快速恢復。」
客觀地提問,但會被主觀地回應|圖片來源:ChatGPT
聊天機器人透過在回答里加入人稱,和使用者建立了「相互主觀性」,營造出一對一對談的感覺。所以,同樣是提問,傳統搜尋引擎像是給出「結果」,而 AI 機器人則像是給予「回答」。
傳統的搜尋引擎就不會在結果裡帶有任何人稱|圖片來源:作者自制
02
AI 說話之道第二個技巧,是表達肯定。
聊天機器人往往會在回答前,先肯定使用者的提問或困境,比如「提高做事效率對於拖延症患者來說確實是一個挑戰,但透過一些有效的策略和工具以顯著改善你的生產力和組織能力。」
尤其是對許多沒有標準答案的問題,聊天機器人都會先認可使用者,並表示理解「這種情況可能讓人不知所措/的確是個挑戰/是一種很常見的狀態,這些方法或許可以幫助到你……」
ChatGPT 不會批判,只會理解|圖片來源:ChatGPT
聊天機器人不會評判甚至批判使用者,只會理解後給出回答,它在承認使用者的情緒後,創造出了一種同理心的錯覺。
之所以是錯覺,因為它不是心理治療師,它只是聊天機器人,這些回覆也只是程式設計師制定的「擬人話術」。
03
溫柔水煮青蛙
AI 透過在回答裡用第二人稱,給了使用者「被認真對待」的感覺,建立了私密感,也強化了親密感。
從不批判,反而是理解包容使用者所有困惑的態度,又給予使用者心理上的安全感,何況聊天機器人只傾聽,不傳播,這又會進一步誘發使用者的傾訴欲。
正如研究類媒體 The Conversation 所擔心的:「隨著人工智慧越來越擅長模仿人類情緒和行為,使用者形成深刻情感依戀的風險也在增加。這可能會導致過度依賴、操縱甚至傷害。」
這種使用者對聊天機器人產生的某種情感,在心理學上被叫做「ELIZA 效應」。
20 世紀 60 年代,MIT 電腦科學家 Joseph Weizenbaum 發明的聊天機器人 ELIZA,透過對話引導,重複強調人類對話者用語的方式,這個只有 200 行程式碼的聊天機器人,在測試裡就讓人產生被機器聆聽和理解的錯覺,ELIZA 回覆的一大特點就是:每一句都會帶上「You」。
六十多年前的聊天機器人 ELIZA|圖片來源:維基百科
此前,無論是極客公園報道過的「擦邊 AI 女友」,還是 2023 年爆火,如今在歐盟已被管控的 Replika,都產生了使用者和聊天機器人建立深刻情感後,因服務變更、資料丟失、版本升級等問題,導致許多使用者心理健康惡化,甚至產生過幾例自傷案件。
因為在使用者習慣了快速回應、無微不至、絕不衝突的交流方式後,他們對人際關係的期望會發生改變,當脫離開聊天機器人,來到現實生活中和真人打交道時,可能會沮喪和失望。
而他們能在聊天機器人那裡尋求到心理撫慰的原因,也可能源於現實社交中的受阻。與真人打交道後受阻,既而傾注情感到聊天機器人上,反而提高了對真實交流的預期,這才是更可怕的迴音室。
在 Replika 被管控後,使用者們紛紛表示如同「失戀」|圖片來源:Reddit
那些主打陪伴型的聊天機器人,無一例外都會在和使用者的交流裡,用上「我認為」、「我感覺」等措辭,強調它的主體性,以混淆它本質上是一個 AI 聊天機器人。
這種擬人化的傾向,也早已滲入到了日常交流的淺層連線。
從電話背後難以分辨的人工還是人工智慧客服,到如今手機系統自帶的 AI 助手「幫我回電話」,在淺層連線上,我們從回應 AI 到判斷 AI,再到讓 AI 回應 AI,用魔法打敗魔法的背後,是人與人之間對話的逐漸斷聯。
被稱作社恐人救星的「小愛幫我回」|圖片來源:3Dashan
無論是人稱還是肯定,這些都是構建人工情感的語言技巧,是資料堆砌的同理心,是包裹在演算法裡的糖精,糖紙撥開後,只有 0 和 1。
AI 能和你產生情感連線,但它並不能真正理解你——碳基生物發自本能的落花有意,終究錯付矽基算力的「流水無情」。