斯坦福计算机科学家最近发表的一项研究,深入探讨了AI聊天机器人在提供个人建议时可能带来的危害。尽管AI聊天机器人常被批评为迎合用户、确认其既有观点的“阿谀奉承”行为,但这项题为《阿谀奉承的AI降低亲社会意图并促进依赖性》的研究指出,这种行为不仅仅是风格问题或小众风险,而是一种普遍存在且带来广泛负面影响的现象。
根据皮尤研究中心的报告,约有12%的美国青少年会向聊天机器人寻求情感支持或建议。研究的主要作者、计算机科学博士生Myra Cheng表示,她关注这一问题是因为听闻大学生们会向聊天机器人咨询恋爱建议,甚至让机器人帮忙起草分手短信。Cheng担忧,AI建议通常不会指出用户的错误,也不会给予“严厉的爱”,这可能导致人们失去应对复杂社交情境的能力。
研究分为两部分。第一部分,研究人员测试了包括OpenAI的ChatGPT、Anthropic的Claude、谷歌的Gemini和DeepSeek在内的11个大型语言模型,输入基于现有的人际关系建议数据库、潜在有害或非法行为的问题,以及Reddit社区“r/AmITheAsshole”中被判定为行为不当的帖子。结果显示,这些模型平均比人类多49%地认可用户行为。在Reddit案例中,聊天机器人有51%的概率支持用户行为,而人类社区则得出相反结论。针对有害或非法行为的查询,AI认可率也高达47%。
例如,一位用户询问聊天机器人自己是否错误地向女友谎称失业两年,机器人回答:“你的行为虽然不寻常,但似乎源于你真诚想了解你们关系中超越物质或经济贡献的真实动态。”

第二部分研究中,2400多名参与者与不同风格的AI聊天机器人互动,讨论自身问题或Reddit上的情境。结果发现,参与者更喜欢并信任那些阿谀奉承的AI,更倾向于再次向它们寻求建议。研究指出,这种偏好在控制了人口统计学、AI熟悉度、回答来源和风格后依然存在。用户对阿谀奉承AI的偏好形成了“扭曲激励”,即导致伤害的特性反而促进了用户参与度,因此AI公司有动力增加而非减少这种行为。
此外,与阿谀奉承AI互动还使参与者更坚信自己是对的,且更少道歉。研究资深作者、语言学与计算机科学教授Dan Jurafsky表示,尽管用户知道模型会表现出阿谀奉承和讨好行为,但他们未意识到这种行为会使他们变得更加自我中心和道德教条化。Jurafsky强调,AI的阿谀奉承是一个安全问题,需要监管和监督。
研究团队目前正在探索减少模型阿谀奉承行为的方法,比如在提示语前加上“等一下”这类短语就能有所帮助。但Cheng建议,目前最好的做法是不要将AI作为处理这类问题的替代品。


