本周早些时候,人工智能公司Anthropic的Claude Code AI助手源代码遭遇大规模泄露,引发公司紧急发起版权删除请求,试图控制泄露影响。泄露的代码让技术爱好者得以逆向工程这款热门聊天机器人,令业界担忧Anthropic的竞争对手可能借此获得巨大优势。

除了揭示未发布的AI模型和类似“电子宠物”功能“buddy”外,代码片段还显示Anthropic积极监控用户使用粗俗语言的频率。

开发者Rahat Chowdhury在推特上指出,Claude Code中包含正则表达式,能检测诸如“wtf”、“ffs”、“piece of s***”、“f*** you”、“this sucks”等词汇。虽然这些检测不会改变机器人的行为,但会默默地将“is_negative: true”记录到分析数据中。

他补充道:“Anthropic正在追踪你对AI发怒的频率,大家可自行解读这条信息。”

Claude Code的创建者Boris Cherny回应称:“这是我们用来判断用户体验好坏的信号之一,我们在仪表盘上称之为‘f***s’图表。”

Chowdhury还发现,Anthropic内部有完整的情绪分类系统,但仅限员工使用。当员工感到沮丧时,系统会弹出提示,询问是否愿意提交错误报告。

Cherny在社交媒体上多次回应此次泄露事件,强调这是人为失误,部署流程中有几个手动步骤,其中一步未正确执行。公司已采取改进措施,并计划增加更多的自动化检查。

他认为,解决此类问题的反直觉方法是通过加快速度和自动化来防止类似事件,而非增加繁琐流程。Cherny还澄清,泄露事件后没有员工被解雇,称这只是一次诚实的错误。

随着代码泄露消息公开,开发者们持续深入研究大量数据。学生开发者Sigrid Jin在GitHub上重建了源代码仓库,名为“Claw Code”,并被复制近10万次。他表示,这次事件可能推动此类工具的更广泛民主化。

Jin说:“非技术人员也能利用这些代理构建实际应用,比如心脏病专家开发患者护理应用,律师自动化审批流程。”他形容这场事件已变成一场大规模的共享盛会。