微软Windows用户对公司将Copilot AI聊天机器人强行植入操作系统各个角落感到不满,甚至给它起了“Microslop”的贬义昵称。令人讽刺的是,微软在其Copilot服务条款中明确表示,这款AI工具不应被用于任何重要工作。

条款中写道:“Copilot仅供娱乐用途。它可能会出错,且可能无法按预期工作。请勿依赖Copilot提供重要建议。使用Copilot风险自负。”

这一自相矛盾的声明令人费解,尤其是在微软坚持将Copilot集成到简单的Windows应用中,如Microsoft Paint和记事本Notepad,以及其他生产力工具。

一位Reddit用户评论道:“如果一家公司都不愿为其产品的准确性负责,那就不是好兆头。如果微软都不信任Copilot,我为什么要信?”

另一位用户讽刺说:“美国三分之一的经济投入到一个仅供娱乐的技术中,真是充满信心。我相信这会有好结果。”

还有人表示:“如果一辆车带有‘不可信赖’的警告,且没有明确的用途或设计目的,你肯定不会买它。”

微软发言人随后向《PCMag》澄清称,这种奇怪的措辞是“Copilot最初作为Bing搜索助手推出时的遗留语言”。他说:“随着产品的发展,这些语言已不再反映Copilot当前的使用情况,下一次更新时会进行修改。”

尽管如此,服务条款中这种令人质疑的措辞反映了一个更广泛的趋势:AI公司一方面大力宣传其聊天机器人的能力,另一方面又试图规避因错误或虚假信息带来的责任。

简而言之,科技高管们声称像Copilot这样的语言模型是自工业革命以来最重要的技术进步,但它们仍然存在严重的“幻觉”问题,导致输出结果本质上不可靠。

与此同时,员工们仍面临着必须不惜一切代价使用AI的巨大压力。

微软的竞争对手也采用类似措辞来规避潜在责任。例如,埃隆·马斯克的xAI在其服务条款中警告称,其聊天机器人可能会产生幻觉、“冒犯用户”,或“无法准确反映真实人物、地点或事实”。

随着包括xAI(今年早些时候并入SpaceX)、OpenAI和Anthropic等公司准备进行可能创纪录的首次公开募股,科技领袖们的宏大承诺与AI工具当前能力之间的巨大落差成为争议焦点。

问题已经开始显现。今年早些时候,亚马逊因AI生成的错误代码导致重大系统故障,据报道,管理层要求高级工程师必须审批初级和中级工程师的任何AI辅助修改。

更多关于微软的报道请见:AI正在改变微软。