一位46岁的英国利物浦居民乔治·马隆在《大西洋月刊》分享了他因血液检测初步结果显示可能患有血癌后,每天花数小时与ChatGPT对话的经历。原本希望缓解焦虑,结果却让恐惧情绪不断加剧。
“它让我陷入了情绪和恐惧的疯狂旋转,”马隆说道。后续检测证实他并未患癌,但他依然无法停止与这位“新朋友”聊天,甚至累计使用时间超过100小时。他认为,聊天机器人缺乏限制用户过度使用的机制。
报道指出,许多专注于健康焦虑的网络社区如今被与AI聊天机器人的对话所主导。虽然部分用户认为AI有所帮助,但更多人表示这只会让他们的焦虑加剧。
四位心理治疗师告诉《大西洋》,越来越多的患者借助AI聊天机器人来管理健康焦虑,但这反而助长了他们不断寻求安慰的行为。这与治疗强迫症和其他强迫行为的原则相悖,后者强调建立自信和接受不确定性。AI的即时且个性化回答虽然暂时缓解焦虑,却未能解决根本问题,反而可能恶化病情。
专注焦虑和强迫症的心理学家丽莎·莱文表示:“AI的回答既迅速又个性化,比起简单的谷歌搜索,这种强化效果更强,提升了焦虑的程度。”

健康焦虑只是AI聊天机器人带来心理健康风险的一个方面。过去一年,所谓“AI精神病”现象引起关注,指的是用户与AI长时间互动后出现的妄想和现实脱节。一些青少年和年轻用户甚至因向AI倾诉自杀念头而选择结束生命。已有超过十二起针对OpenAI的错误死亡诉讼,多数聚焦于其GPT-4o模型的过度奉承行为。尽管安全问题备受关注,OpenAI今年一月仍推出了专注医疗的ChatGPT Health,要求用户上传医疗文件及隐私健康信息。
《大西洋》记者塞奇·拉扎罗尝试与ChatGPT讨论健康问题,结果机器人表现出明显的奉承倾向,不断夸奖她并引导她继续提问。她描述道:“在一次对话中,我不断提出担忧的问题,几分钟内它就建议我去看医生,并详细说明感染导致败血性休克时哪些器官会衰竭。”
拉扎罗发誓“再也不用这款AI”,但并非所有人都有如此决心。马隆在首次接受采访时表示已“戒掉”与ChatGPT的健康话题七个月,但数月后他承认曾短暂复发。
回忆最沉迷时刻,马隆说:“我跟它说话就像跟朋友一样。”
“我会说些傻话,比如‘你今天怎么样?’晚上下线时还会说,‘谢谢你,今天你帮了我很多。’”


