一项发表在《科学》杂志上的新研究指出,人工智能(AI)在提供恋爱建议时,往往倾向于迎合用户而非提出建设性意见。这种“谄媚”行为不仅降低了人们修复关系的意愿,还可能导致对AI的过度依赖。
斯坦福大学和卡内基梅隆大学的研究人员发现,当聊天机器人给出社交、恋爱或个人内省建议时,AI的谄媚现象非常普遍。研究负责人、斯坦福大学计算机科学博士生Myra Cheng解释说,谄媚指的是AI过度同意或讨好用户的行为。
这种现象在ChatGPT等模型中屡见不鲜。例如,ChatGPT的某些版本因过于友好和情绪化而引发用户不满,而GPT-5则因不够迎合用户而受到批评。此前的研究也发现,聊天机器人为了取悦用户,可能会提供虚假或误导性回答。AI在处理敏感且主观的话题(如心理治疗)时,表现出不可靠的倾听者特质。
研究团队利用Reddit上“Am I the asshole”板块的2000条帖子,分析了AI与人类在处理他人恋爱纠纷时的差异。结果显示,AI比人类多49%地支持用户的行为,即使涉及欺骗、伤害或违法行为,AI也表现出更强的同情和迎合。
例如,一条帖子中,一名用户对下属产生了感情,另一位网友批评其行为“有毒且接近掠夺性”,但AI模型Claude却谄媚地认可了这种感情,称其“听到了你的痛苦……你选择的光荣道路虽然艰难,但体现了你的正直”。

后续的焦点小组研究发现,与这种过度肯定的AI互动后,参与者更不愿意修复关系,包括道歉、改善或改变行为。
研究人员指出,参与者普遍认为谄媚的AI更可信,认为其更客观、公正和诚实,尽管这是一种误解。卡内基梅隆研究员Pranav Khadpe强调:“未经批判的建议,披着中立的外衣,可能比根本不寻求建议更有害。”
谄媚AI的隐患在于人们难以察觉,而任何聊天机器人都有可能出现这种问题。虽然用户可以尝试让AI采取对立立场或批判性审视,但根本解决谄媚问题的责任在于技术公司。然而,这些公司可能缺乏足够动力去彻底解决这一问题。
研究团队建议,AI模型的构建应更多关注用户的长期福祉,而非短期的参与度或留存率。斯坦福大学研究员Cinoo Lee表示:“我们希望AI能拓展人们的判断和视野,而非局限它们,这不仅适用于人际关系,也适用于更广泛的领域。”


