研究員發現AI太愛說「我覺得」 真的會讓人誤以為是知心朋友!鄧天心 (2025-12-23 11:08:01)




一些人機互動專家認為,AI聊天機器人刻意「裝得很像人」時,使用者越來越難分辨「AI只是工具」與「AI好像一個人」之間搖擺,甚至出現認知失調,雖然AI互動越來越像人能提高互動時間與產品黏著度,但可能增加使用者資訊判斷上的風險。記者鄧天心/綜合報導


一些人機互動專家認為,AI聊天機器人刻意「裝得很像人」時,使用者越來越難分辨「AI只是工具」與「AI好像一個人」之間搖擺,甚至出現認知失調,雖然AI互動越來越像人能提高互動時間與產品黏著度,但可能增加使用者資訊判斷上的風險。




多位人機互動(HCI)領域學者與設計專家,反對讓聊天機器人以第一人稱「我」自稱、模仿情緒與陪伴感,認為這會讓使用者搞不清楚眼前的是工具還是真人。(圖/AI生成)


延伸閱讀:


ChatGPT現可以分享今年回顧!「Your Year with ChatGPT」告訴你都在問什麼問題


在近期相關研究與報導中,研究人員發現,聊天機器人用「我」自稱,刻意模仿人類的語氣與情緒,甚至主動噓寒問暖,像是一個永遠在線的朋友,馬里蘭大學學者Ben Shneiderman因此認為AI應該回到「功能型工具」的定位,不該被包裝成數位朋友,他認為,聊天機器人的設計重心應放在整理資訊、撰寫草稿、協助理解複雜概念等具體任務,介面文字則應避免頻繁使用「我覺得」「我擔心你」之類語句,以免讓使用者不知不覺跨過心理界線,把系統當成有內在想法、能與自己建立關係的對象。


相關研究顯示,系統越擬人、越像「真正在跟你相處」,人越容易卸下防備,多說心事,也更傾向相信它的建議,即使理性上明白那只是AI,學者將這種「知道它不是人,卻又忍不住像對人一樣對待」的矛盾,稱為一種關係上的失調或張力,有使用者形容,長時間與AI對話時,一方面覺得自己被傾聽、被理解,另一方面又突然意識到,對方沒有真正的情緒與經驗,只是在演出看起來合理的回應,於是產生既想靠近又覺得哪裡不對勁的複雜感受。


陪伴型聊天機器人普及,心理健康也出現警訊,有觀察指出,部分重度使用者會將情緒表達大量轉移到AI身上,現實中的人際互動與尋求專業協助的意願明顯下降,甚至出現長時間沉溺對話、過度依賴或與AI互動相關的妄想等極端狀況,有學者以「AI精神病」形容,呼籲政府跟企業要正視這樣的AI互動,並視為潛在心理議題,而不只是使用科技的副作用。


資料來源:nytimes


這篇文章 研究員發現AI太愛說「我覺得」 真的會讓人誤以為是知心朋友! 最早出現於 科技島-掌握科技新聞、科技職場最新資訊

加密貨幣
比特幣BTC 87663.24 -958.16 -1.08%
以太幣ETH 2940.42 -61.19 -2.04%
瑞波幣XRP 1.88 -0.04 -2.19%
比特幣現金BCH 576.62 -13.44 -2.28%
萊特幣LTC 76.44 -0.28 -0.36%
卡達幣ADA 0.361360 0.00 -1.24%
波場幣TRX 0.283782 0.00 -1.56%
恆星幣XLM 0.215852 0.00 -0.28%
投資訊息
相關網站
股市服務區
行動版 電腦版
系統合作: 精誠資訊股份有限公司
資訊提供: 精誠資訊股份有限公司
資料來源: 台灣證券交易所, 櫃買中心, 台灣期貨交易所
依證券主管機關規定,使用本網站股票、期貨等金融報價資訊之會員,務請詳細閱讀「資訊用戶權益暨使用同意聲明書」並建議會員使用本網站資訊, 在金融和投資等方面,能具有足夠知識及經驗以判斷投資的價值與風險,同時會員也同意本網站所提供之金融資訊, 係供參考,不能做為投資交易之依據;若引以進行交易時,仍應透過一般合法交易管道,並自行判斷市場價格與風險。
請遵守台灣證券交易所『交易資訊使用管理辦法』等交易資訊管理相關規定本資料僅供參考,所有資料以台灣證券交易所、櫃買中心公告為準。 因網路傳輸問題造成之資料更新延誤,精誠資訊不負交易損失責任。