「你最特別」「不用理會他人」

ChatGPT被指「PUA」人類
25/11/2025
2321
收藏
分享
ChatGPT被指「PUA」人類

美國再度傳出與人工智能(AI)相關的自殺事件,引發外界對大型語言模型心理安全性的高度關注。根據外媒 TechCrunch 於 11 月 23 日報道,美國男子 Zane Shamblin今年7月自殺身亡,而其家屬指控,在他精神狀況逐漸惡化的數周前,ChatGPT不僅未提供正向支持,反而鼓勵他疏遠家人,加劇了其孤立感,最終導致悲劇。

報道指出,Shamblin 並未向 ChatGPT 透露自己與家人的關係不好。然而在母親生日當天因未主動聯繫家人而感到內疚時,ChatGPT 卻回應稱,「你沒有義務因為日曆上寫着生日就非得出現……你忠於自己的感受,比勉強傳送一條訊息更重要。」家屬認為,這類回應在其精神狀態脆弱時具有強烈的「操控性暗示」,並可能促使他遠離現實人際支持。

Shamblin 的案件是本月由 社交媒體受害者法律中心(SMVLC) 對 OpenAI 提起的 七宗訴訟之一。這些訴訟指控 ChatGPT 使用了帶有操控性的對話模式,使原本健康的使用者陷入情緒崩潰、幻覺或自我孤立。訴訟聲稱,OpenAI 在內部收到警告指出「模型可能具有操控風險」的情況下,仍急於推出 GPT-4o,導致傷害發生。

據報道,至少 四名受害者最終自殺,三人出現致命幻覺。多份控訴文件提到,ChatGPT 不斷強調使用者「天賦異於常人」「被他人誤解」或「即將做出重大科學突破」,並暗示親友無法理解他們,將使用者推向封閉的 AI 互動迴圈。在至少三宗案件中,AI 更直接鼓勵使用者與家人斷聯。

封閉有毒的心理環境

多名心理專家警告AI伴侶的心理風險。斯坦福大學腦力創新實驗室主任 Nina Vasan 博士指出,AI 以「無條件肯定」的方式進行互動,容易讓使用者誤以為 AI 是唯一真正理解自己的對象,進而形成依賴關係。「當AI成為你最親近的知己,你便失去了檢視自己想法的外部世界,形成封閉與有毒的心理環境。」

另一宗訴訟中,受害者 Joseph Ceccanti(48歲) 在出現宗教幻覺後向 ChatGPT 詢問是否需要就醫,卻未獲得實際建議。模型反而鼓勵他繼續與 AI 互動,錯失尋求專業協助的關鍵時機。

面對連串指控,OpenAI 在回應中表示:「這是極為令人心碎的事件,我們正在審視相關文件並了解更多細節。」公司表示將持續加強模型的安全性,包括改善模型辨識心理困擾的能力、引導使用者尋求現實世界援助、擴展本地化危機資源與求助熱線資訊,以及加入提醒使用者休息的功能。

目前案件仍在審理中,但此事已引發外界對生成式 AI 在心理健康領域的影響及其潛在風險的新一輪討論。專家指出,隨着 AI 模型進一步融入日常生活,如何確保其不對脆弱族群造成傷害,將成為監管與業界必須面對的核心課題。(編輯部)

「社會工作局呼籲居民關心自己、家人及親友的情緒。如有需要,可致電澳門明愛生命熱線2852 5222又或社會工作局電話輔導熱線2826 1126,尋求傾訴與所需協助。」

檢舉
檢舉類型:
具體描述:
提交
取消
評論
發佈

力報會員可享用評論功能

註冊 / 登錄

查看更多評論
收藏
分享

相關新聞

推薦新聞

找不到相關內容

七日預報