近年来,严峻的就业市场催生了一种新的行业现象:旧金山一家名为Mercor的AI公司开始雇佣急需工作的人员,训练AI模型来替代他们无法获得的职位。该公司招募了大量受过教育但就业不足的专家,却对他们隐瞒了所训练AI的归属公司。根据《纽约杂志》报道,工作时间异常漫长,管理层多为年轻且缺乏经验,合同经常无预警地终止。
Mercor的客户包括OpenAI和Anthropic等知名企业,但该公司在上月底遭遇黑客攻击,再次暴露了硅谷依赖承包商的脆弱AI供应链。Mercor向《TechCrunch》透露,此次攻击与一个名为LiteLLM的开源项目漏洞有关。泄露的数据样本中包含Slack聊天记录和视频,显示了Mercor的AI系统与受雇员工之间的对话,意味着客户的敏感信息可能被泄露。
Mercor发言人表示,公司正与顶级第三方取证专家合作,全面调查事件,并将持续与客户和承包商沟通,尽快解决问题。然而,形势依然严峻。多名承包商已对Mercor提起五起诉讼,指控其违反数据隐私和消费者保护法规,可能泄露了包括社会保障号码和地址在内的高度敏感信息。

虽然数据泄露后被起诉并不罕见,但此事件再次凸显了依赖低薪且过度劳累的承包商来训练关键AI模型的风险。Meta也已暂停与Mercor的所有合作,进行安全事件调查,但其主要担忧并非承包商的权益,而是担心训练方法被竞争对手知晓,丧失竞争优势。
这并非Mercor首次因对待承包商不当而陷入争议。过去七个月内,该公司已面临三起集体诉讼,原告指责Mercor依赖独立承包商,却不给予他们应有的工作自主权和透明度。去年11月,承包商还指控Mercor解雇他们后,提供报酬更低的其他项目工作。
Mercor事件反映了AI行业在快速发展背后,劳动力管理和数据安全面临的严峻挑战。

