谷歌的AI概览功能正在以可能是人类历史上前所未有的规模传播错误信息。
AI初创公司Oumi应《纽约时报》委托进行的一项最新分析显示,谷歌搜索结果上方由AI生成的摘要准确率约为91%。
乍听之下,这个数字似乎相当不错,但更令人震惊的是谷歌每年处理约五万亿次搜索查询。换算下来,AI概览每小时提供数千万个错误答案,每分钟则有数十万个错误回答。
换句话说,谷歌已经制造了一场信息误导危机。研究表明,人们往往不加怀疑地信任AI提供的信息。一项报告发现,只有8%的用户会对AI的答案进行二次核实。另一项实验显示,当AI给出错误答案时,近80%的用户仍然选择相信,这种现象被研究人员称为“认知投降”。
大型语言模型通常以权威的语气呈现信息,即使无法立即找到准确答案,也会自信地输出虚假内容。结合谷歌AI概览的便利性,难以想象有多少用户会直接采信这些摘要。
Oumi使用由OpenAI设计的SimpleQA测试方法对AI准确性进行了评估。首次测试于去年十月进行,使用的是基于谷歌Gemini 2模型的AI概览。随后二月的复测则使用了升级后的Gemini 3模型。

每轮测试均包含4326次谷歌搜索。结果显示,Gemini 3的准确率为91%,明显优于Gemini 2的85%。
这表明模型确实在进步,但同时也暴露出谷歌曾将更易产生幻觉的模型推向用户,导致数亿人持续接收错误信息。
谷歌发言人Ned Adriance称该分析存在严重缺陷,表示“这项研究没有反映出用户实际的搜索行为”。
然而,谷歌内部对Gemini 3的测试同样显示,该模型28%的回答存在错误。谷歌辩称,AI概览的准确率更高是因为它们会参考谷歌搜索结果。
更令人担忧的是,Oumi分析发现Gemini 2有37%的回答是“无依据”的,即引用的网站并不支持其提供的信息;而Gemini 3这一比例反而上升至56%。这意味着AI不仅凭空捏造事实,还让用户难以验证其说法的真实性。
这场围绕谷歌AI概览的争议凸显了当前AI技术在信息准确性和用户信任方面的巨大挑战。


