ChatGPT被認為比人類危機應對者更具同情心
根據(jù)定義,機器人是無法感同身受的,因為同情需要將自己置身于他人的人類經(jīng)驗中——感同身受,設身處地。而根據(jù)多倫多大學的一項新研究,人工智能(AI)能夠比人類更可靠、一致地表達同情。
研究表明,甚至經(jīng)過專業(yè)訓練的危機應對人員也不如AI在同情表達方面更具優(yōu)勢。
“AI不會感到疲憊,” 研究主導者、安大略大學斯卡伯勒分校教授Michael Inzlicht實驗室的實驗室經(jīng)理Dariya Ovsyannikova表示,”它能提供一致的、高質(zhì)量的同情回應,而不受到人類情緒壓力的影響?!?/p>
這項研究發(fā)表于《傳播心理學》雜志,研究內(nèi)容評估了人們?nèi)绾卧u價ChatGPT生成的同情回應與人類回應的差異。
在四項獨立實驗中,參與者被要求評估AI、普通人和專業(yè)危機應對人員針對一系列正面和負面情境所做的書面回應中的同情程度。在每一個情境中,AI的回應更受青睞,并被評為更加富有同情心和響應力,展現(xiàn)出比人類回應更高的關(guān)懷、認可和理解。
那么,為什么像ChatGPT這樣的聊天機器人能超越專業(yè)訓練有素的危機應對人員呢?Ovsyannikova指出,AI能夠捕捉細節(jié)并保持客觀,使其在提供細致入微的溝通時,顯得尤為擅長并且能夠傳達同情。
同情心不僅在促進社會團結(jié)方面至關(guān)重要,它還幫助人們感到被理解、被關(guān)注,并且與他人建立聯(lián)系。研究人員指出,在臨床環(huán)境中,同情心在幫助人們調(diào)節(jié)情緒、減輕孤獨感方面發(fā)揮著至關(guān)重要的作用。
然而,持續(xù)表達同情也帶來了負擔。
“照護者可能會經(jīng)歷同情疲勞,”O(jiān)vsyannikova說,她曾作為危機熱線志愿者參與工作,”專業(yè)照護者,特別是在心理健康領域,可能需要在情感投入上有所保留,以避免倦怠并有效平衡他們對每個客戶的情感投入?!?/p>
人類照護者也面臨偏見的影響,并且可能因為某些特別復雜或令人痛心的案例而感到情感波動,這進而影響了他們的同情心。此外,隨著醫(yī)療服務的短缺、合格工作人員的不足以及心理健康問題的廣泛增加,醫(yī)療領域中的同情心也變得日益稀缺。
當然,這并不意味著我們應當立刻將同情心這一關(guān)懷責任交給人工智能,Inzlicht教授表示,”AI可以作為補充人類同情心的工具,但它也有其自身的風險。”
他補充道,雖然AI可能在表面上能夠提供人們當下所需的同情心,但像ChatGPT這樣的聊天機器人并不能有效地提供更深層次、意義深遠的關(guān)懷,特別是當涉及到精神健康問題的根本原因時。
他還指出,過度依賴AI會帶來倫理問題——例如,它可能使科技公司擁有操控需要關(guān)懷的人的能力。舉個例子,某個孤獨或感到被忽視的人,可能會依賴與AI聊天機器人進行溝通,感受持續(xù)的同情,而不是培養(yǎng)與他人的真實聯(lián)系。
“如果AI成為同情的主要來源,人們可能會疏遠人際關(guān)系,加劇我們本應解決的問題,如孤獨感和社會隔離,”Inzlicht說,他的研究關(guān)注同情心和共情的本質(zhì)。
另一個問題是所謂的”AI厭惡”現(xiàn)象,指的是人們普遍對AI理解人類情感的能力持懷疑態(tài)度。雖然在研究中,參與者在不知道回應來自AI時,普遍更喜歡AI生成的回應,但當他們知道這些回應來自AI時,他們的偏好發(fā)生了變化。然而,Inzlicht認為,這種偏見可能隨著時間和經(jīng)驗而逐漸減弱,特別是對于那些在AI環(huán)境中長大、習慣與AI互動的年輕人來說,他們更可能信任AI。
盡管同情心在當今社會中的需求日益迫切,Inzlicht教授呼吁應當采取透明和均衡的方法來部署AI技術(shù),使其補充而非替代人類的同情心。
“AI可以彌補空白,但它永遠不能完全取代人類的關(guān)懷。”
參考文獻:Dariya Ovsyannikova et al, Third-party evaluators perceive AI as more compassionate than expert humans,?Communications Psychology?(2025).?DOI: 10.1038/s44271-024-00182-6
編輯:王洪
排版:李麗


本文系作者 @TIMEDOO 原創(chuàng)發(fā)布在 肽度TIMEDOO。未經(jīng)許可,禁止轉(zhuǎn)載。