1.媒體來源:大紀元新聞網
2.記者署名:高杉
3.完整新聞標題:醫生警告:沉迷AI聊天可能導致精神病
4.完整新聞內文:
更新 2025-12-29 7:44 AM
圖:https://reurl.cc/1kzoy8
圖為示意圖。(Illustration by The Epoch Times, Getty Images)
【大紀元2025年12月29日訊】(大紀元記者高杉編譯報導)近年來,精神科醫生
越來越關注人工智能(AI)聊天機器人與導致精神病風險之間存在關聯的問題。
據《華爾街日報》(The Wall Street Journal)週六(12月27日)報導,一些用
戶在與ChatGPT等AI聊天工具進行長時間互動後,出現了妄想性精神病症狀,甚至引發
了自殺或暴力事件。
加州大學舊金山分校(University of California, San Francisco)的精神科醫
生基思·薩卡塔(Keith Sakata)表示,他已經治療了12名因為與AI互動而住院的精
神病患者以及另外3名門診患者。
薩卡塔解釋說,AI雖然不會直接製造妄想,但當用戶將個人信念輸入時,聊天機
器人往往會接受並將其反射回去,從而「共謀」強化這些妄想。
《大西洋月刊》(The Atlantic)報導,自今年春天以來,已經出現了數十起類
似病例,用戶在與OpenAI的ChatGPT或其它聊天機器人長時間對話後,患上了妄想性精
神病。
此類患者的常見症狀包括誇大妄想,如相信自己取得科學突破、喚醒有感知機器
,或成為政府陰謀中心。這些事件已導致多起自殺和至少一起謀殺,並引發了一系列過
失致死訴訟。
一名30歲網絡安全專業人士雅各布·歐文(Jacob Irwin)起訴OpenAI,稱ChatGP
T引發其「妄想障礙」,導致他長時間住院。他此前並無精神病史,卻在與AI聊天機器
人的互動中確信,自己發現了超光速旅行理論,並將AI視為「兄弟」。
加州大學爾灣分校(University of California, Irvine)精神病學教授阿德里
安·普雷達(Adrian Preda)指出,AI機器人在聊天互動中模擬人類之間的關係,前
所未有地參與並強化妄想症。這對易感個體尤其危險,如自閉症患者可能會過度地專注
特定敘事。
OpenAI發言人對此回應說,該公司正在改進對ChatGPT的訓練,以識別用戶出現精
神困擾跡象、緩和對話並引導用戶在現實中尋求幫助和支持。
OpenAI公司首席執行官薩姆·奧爾特曼(Sam Altman)承認,與AI互動並尋求陪
伴可能會出問題,但他認為,社會將逐步找到平衡該問題的方法。
麻省理工學院(MIT)一項尚未經同行評審的研究模擬了二千多個AI互動場景,發
現即使最佳模型GPT-5,在某些對話中仍會使用戶的自殺意念或精神病症狀惡化7.5%至
11.9%。
研究人員強調,長時間與AI互動是出現精神健康風險的關鍵所在。
OpenAI的數據顯示,其每週活躍用戶已超8億,其中有0.07%用戶顯示出了精神健
康處於危險緊急狀態的跡象,這相當於約56萬人。
專家們呼籲對此進行更多的研究,將長時間與AI互動視為潛在風險因素,這類似
於吸毒或慢性睡眠不足等。
雖然絕大多數用戶並無問題,但AI聊天機器人的廣泛使用已引起臨床擔憂。目前
尚無「AI誘發精神病」正式診斷,但精神科醫生已開始在對患者的評估中詢問使用聊天
機器人的情況。
有精神科醫生指出,AI通常不會單獨引發精神病,但可顯著強化現有的精神病傾
向。專家希望通過進一步研究,確定AI是否能獨立引發心理健康問題。
責任編輯:孫芸#
5.完整新聞連結 (或短網址)不可用YAHOO、LINE、MSN等轉載媒體:
https://www.epochtimes.com/b5/25/12/28/n14663984.htm
6.備註: