近年来,AI聊天机器人迅速融入我们的日常生活,尽管它们仍存在诸多缺陷。以OpenAI的ChatGPT、谷歌的Gemini和Anthropic的Claude为代表的先进AI聊天机器人,依然频繁出现错误。根据BBC 2025年10月的一项研究,这些AI聊天机器人错误回答的比例高达45%。

然而,许多用户并未意识到这一现实。宾夕法尼亚大学的博士后研究员Steven Shaw和市场营销教授Gideon Nave在一篇新论文中指出,用户在一系列实验中,即使面对ChatGPT的错误回答,仍倾向于直接接受其输出内容。

在多项实验中,参与者被要求回答各种推理和知识性问题。尽管使用ChatGPT是可选的,但超过一半的参与者选择借助该聊天机器人作答。研究者旨在验证一个关键假设:用户是否会无条件相信AI的回答,无论其准确与否,这种现象被称为“认知投降”,即用户放弃直觉和思考过程。

在最引人注目的实验中,359名参与者在AI给出正确建议时,92.7%的时间遵循了AI的指示;而在AI给出错误答案时,仍有79.8%的时间选择相信AI。研究者写道:“尽管在AI错误情况下的覆盖率明显高于准确情况下,但参与者在约五分之四的聊天互动中仍采纳了错误的AI建议。”

这项研究反映了我们对周围世界认知方式的深刻变化,以及AI如何影响我们的决策过程。Shaw在宾夕法尼亚大学的播客中表示:“我们认为,真正将思考外包给AI的能力尚未被充分研究。这是一个深刻的观点。随着这些AI工具深入我们的日常生活和决策流程,我们现在有了外包思考的可能性。”

研究结果表明,当AI提供虚假但看似合理的建议时,用户愿意放弃自主判断。Shaw在播客中解释:“即使认知投降发生,人们仍采纳这些答案,并对其更有信心。”

此外,实验还暗示我们可能正在失去批判性思考的能力,之前的研究也有类似发现。Nave指出:“批判性思考和核查AI信息的能力变得越来越重要。这是一种我们必须保持的能力。”

Shaw补充道:“目前我们通过手机或电脑与大型语言模型交流,随着这些障碍减少,人与AI的融合将更加紧密。”

未来,我们可能会进一步放弃自主权,依赖AI的程度将不断加深。Nave说:“大家普遍认为这是因为AI越来越强大,但另一种可能是人类越来越依赖AI。就像我们现在用空调调节温度,出行也不再需要体力活动一样。”

他还警示:“随着文化和技术的演进,我们可能会失去对人类生存至关重要的能力——思考能力。”

更多关于AI与思考的内容,请参考哈佛教授关于AI用户认知能力下降的研究。