議題背景:

昨(6/30)日晚間23:00公開在國際期刊《自然人類行為》(Nature Human Behaviour)的最新研究發現,即使AI生成的回覆內容,被人評價為「有同理心」,但當人們相信或認為自己得到的回應來自AI時,對回應的同理心評價會下降。

研究使用線上平台招募了6,282人,讓他們打字輸入近一個月內的一次感情經歷。這些文字都被傳送給AI模型,生成有同理心的回覆。在這些人等待由AI生成的回應時,研究人員告知他們,回應是來自AI還是人,然後請他們評分自己收到的回應有沒有同理心、同理心的高低,例如「AI/對方正確理解了我的情緒」、「AI/對方表現出真誠分享和體會我所感受到的情緒」、「AI/對方表現出對我的真誠關懷」等等。研究發現,當回覆的「來源」被認為是AI,人們認為回應帶給自己的情感、支持、真實性及正面感受就會明顯降低。

研究也指出,即便人們被告知是人類提供了回覆,但若自行判斷或懷疑其中有AI協助,評價也會降低。研究顯示無論AI回覆的長短、必須等待回覆的時間長短,人們認為是是AI回應時,都比認為是人類回應時的評價更低。作者建議,AI可用於提供有禮貌、實用的建議,但未來設計AI時應釐清 AI 的角色與情感界線,並且應評估不同人群能接受AI回覆的程度,以及追蹤長期的互動是否建立信任或帶來負面情緒。

台灣科技媒體中心邀請研究AI與心理的專家解析,我們應如何看待研究結果,以及如何謹慎的在日常陪伴或心理支持時使用 AI。

 

研究原文:

  • Rubin, Matan, et al. "Comparing the value of perceived human versus AI-generated empathy" Nature Human Behaviour (2025)DOI: 10.1038/s41562-025-02247-w

 

專家怎麼說?

【黃從仁】【謝麗紅】

2025年06月30日
國立臺灣大學心理學系副教授 黃從仁

Q1:這篇研究為什麼重要?研究可以如何幫助未來設計有情緒支持或陪伴功能的AI?研究結果是否顯示未來發展這類AI時,需要克服的挑戰?

這項大型研究涵蓋9個實驗、6,282名受試者。研究首次用「完全相同的文字回應,只改變來源標籤」的方法,證實了一旦人們相信收到的回應來自人類,而非AI,對同一句話的同理心、支持度、正向情緒與互動意願都會顯著上升。

這篇研究發現,人們特別在意「情感分享」和「關心」這類涉及深層情感連結的同理心,是否來自人類。然而,AI仍能被視為在「認知層面的理解」(例如理解對方的處境並提供建議)上,有效的工具。未來設計AI時,可以根據使用情境,調整溝通策略。在需要提供人們資訊、建議或初步安撫情緒時,AI可以扮演好輔助的角色。

未來發展這類AI時,主要的挑戰是如何在保持透明度(誠實告知使用者正在與AI互動)的同時,又不因此削弱使用者所感受到的理解和支持。

Q2:這篇研究有哪些推論的限制,是我們應該謹慎看待的?
這個研究有許多如下的推論限制:

1.研究情境:這項研究主要是在線上實驗環境中進行的,參與者與AI或「假想的人類」進行短暫的互動。這種一次性、匿名的互動,可能無法完全代表真實世界中,人們與AI建立長期、深入關係後的感受。在長期的陪伴關係中,人們對AI的看法可能會改變。此外,研究還未檢驗語音、影片或有肢體互動的情境。

2.樣本來源:受試者全部來自一個線上招募平台(Prolific),主要是英國與美國、年齡大約27至28歲的成人,無法完全代表全球不同的文化、年齡層和熟悉AI與否的所有人群。不同文化背景的人對於AI的接受度和期望可能有差異。

3.科技進展:研究雖然測試了不同的語言模型,但AI技術日新月異,未來的模型可能會在模擬情緒方面更加先進。這篇研究的結論是以「目前」的技術水準為基礎,未來或許會有所不同。

Q3:根據這篇研究結果,如果人會因為看到『是AI回答的』,而降低對AI同理心的評價,那麼應該如何標示來自AI的回答,可以透明的揭露來源,同時又讓人感受到被理解與支持?

系統方面可以提示:「我是AI小幫手,我會24小時在這裡,運用龐大的知識庫來理解您的困擾,並提供支持與建議。」這種說法在誠實揭露身份的同時,也強調了AI的優勢(全天候、知識豐富),將用戶的期望引導至AI能做好的事情上(提供資訊、初步支持)。

此外,此研究顯示,即使需要等待,許多人仍偏好與人類互動。可以提供選項,讓使用者自行決定他們是希望「立即獲得AI的回應」,還是「願意等待一段時間,與真人專家或志願者交流」。這不僅尊重了使用者的偏好,也讓他們在使用AI時,心裡的期待更明確。

Q4:如果未來在心理支持、陪伴對話中運用到更多AI,您建議一般公眾具體怎麼做,或考慮哪些條件,才能更妥善運用這些AI工具?

我會有以下三個建議:

1.這類的AI工具就像速食。速食雖然不是高品質或營養平衡,但能快速填飽肚子。當我們有立即被傾聽或是尋求一般性建議的需求,這類的AI工具可以即時地幫忙。

2.雖然AI可以提供看似充滿智慧和同理心的回覆,但這些內容是以廣大數據和演算法為基礎而生成的,不一定完全適用於個人情況。對AI提供的建議,特別是涉及重大決策的,應該保持審慎和批判性的態度,並在需要時尋求人類專家或親朋好友的第二意見。

3.最後,在使用任何心理支持、陪伴對話的AI服務之前,請務必了解隱私政策,確認你的資料將如何被儲存和使用。盡量選擇信譽良好、有明確承諾會保護使用者隱私的開發者,避免將高度敏感或可識別個人的資訊,用來訓練模型。

 

2025年06月30日
國立彰化師範大學輔導與諮商學系教授 謝麗紅

目前,關於人工智慧是否能提供情感支持與同理心的討論,日益熱烈,但我認為,我們不應期待用AI取代人與人之間的情緒關係,特別是在「同理心」這件事上。

這篇研究清楚指出,即使AI回應的語言已接近人類,但只要研究中的人知道這是來自機器,就會立刻降低對回應的認同感與情感價值的評價。研究揭示的事實是,即使AI的回應內容再精準,人們依然傾向相信「真正的同理心只能來自人類」。這並非單純的技術問題,而是牽涉到我們對「真誠」、「理解」與「被關心」的根本心理需求,是一種根植於人性深處的情感需求。我們希望對方真的懂我、真的在乎我、真的願意為我付出,這是目前AI只能模擬而無法真正具備的能力。

同理心不是工具性的溝通技巧,而是一種情感上的連結與人際投入。它來自願意靠近與陪伴對方並與他同在,而這正是目前所有AI都無法提供的關鍵。AI 不是「真人」,不會感受到感受與情緒,也不會經歷失落,它能做的是模擬,無法達到真的「共感」。事實上,這些「限制」反而構成了存在我們人彼此之間同理的真實與珍貴。

AI 在情緒陪伴與心理支持的應用中,應該被定位為一種輔助工具、橋梁或輔助者,而不是人際互動關係與情感的替代者。它可以提供初步傾聽、協助整理情緒、提供解決問題的方法、降低心理求助的門檻,但不應被誤認為能夠真正理解人心或取代真實的人際關係。我們更需要思考的是,當人們開始尋求AI來傾訴與療癒時,是不是反映了現代社會人際關係、心理支持的斷裂與孤立?

與其仰賴AI 扮演情感關係的角色,我們更該致力於經營人與人之間信任與陪伴的真實關係。唯有人類,能在真正理解、承擔與共感之中,讓我們在情緒風暴中感受到「被在乎」、「被理解」的溫度。科技可以輔助我們,但無法替代我們成為彼此的信任關係與情緒支持的港灣。這是我們在擁抱AI發展的同時,必須反思的。

這篇研究最深層的張力,來自於「誠實揭露AI來源」與「維持情感效果」之間的矛盾。現今社會鼓勵科技透明,但透明本身卻可能削弱使用者的情感體驗。這不僅是技術問題,更是倫理問題。

若未來支持心理健康時,要大量運用AI,我們需要先建立幾個關鍵前提:AI是輔助而非能完全替代人際互動關係與專業心理諮商、要清楚告知使用者AI的角色與限制,同時,政策和研究都應監測長期影響、建置倫理規範監督機制,防範造成過度依賴與倫理風險。

版權聲明

本文歡迎媒體轉載使用,惟需附上資料來源,請註明台灣科技媒體中心。
若有採訪需求或其他合作事宜,請聯絡我們:

曾雨涵

haharain331@rsprc.ntu.edu.tw
02-3366-3366#55925