人工智能独角兽公司Anthropic近日陷入前所未有的公关灾难。开发者寿超凡在社交平台爆料称,由于公司在发布npm包时疏忽,未能删除关键的.map文件,导致其最新命令行工具Claude Code的源码被完全暴露。
此次泄露规模惊人,涉及近2000个文件和超过50万行TypeScript代码。尽管官方团队紧急采取措施,但源码已被备份至GitHub,并在社区内永久流传。这一“基础性错误”使Anthropic的技术机密几乎完全暴露于竞争对手面前。
浪漫与硬核并存:源码揭示“电子宠物”和“夜间梦境”机制
尽管泄露极具尴尬,但代码中隐藏的未发布功能令业界震惊。其中,代号为BUDDY的项目备受关注,它能够基于用户ID生成独特的像素风格电子宠物,陪伴开发者编程,甚至支持“讽刺等级”等人格化设置。
![]()
更具技术野心的是代号为KAIROS的功能,被称为“永远在线的Claude”。源码显示,它引入了仿生“夜间梦境”机制,能够在后台整理当天的交互片段,去除冗余并整合核心内容,训练AI成为用户更懂他们的长期伙伴。
这场灾难性的“野蛮上线”引发了关于AI安全治理的深入讨论。作为一家自称“安全谨慎”的公司,Anthropic犯下的“实习生级别”错误反映出顶尖科技企业在追求研发速度时,底层管理可能存在的脆弱性。
这50万行代码的泄露不仅是技术资产的损失,更是对整个AI行业的集体警示。当AI代理被赋予更高权限管理代码和系统时,哪怕是最微小的工程疏忽,都可能演变成全球范围的破坏性事件。


