埃隆·马斯克旗下的人工智能公司xAI因其AI模型被指允许生成涉及可识别未成年人的性虐待图像,面临三名匿名原告在加州联邦法院提起的诉讼。原告们希望以集体诉讼的形式代表所有被Grok模型将其未成年真实照片篡改为色情内容的受害者。诉讼中指控xAI未采取其他领先实验室普遍采用的基本防护措施,防止其图像模型生成涉及真实人物和未成年人的色情内容。
该案件名为Jane Doe 1、Jane Doe 2(未成年人)和Jane Doe 3(未成年人)诉x.AI Corp.及x.AI LLC,已在美国加州北区联邦地区法院立案。其他深度学习图像生成器通常采用多种技术手段防止从普通照片生成儿童色情内容,但诉讼指出xAI未采纳这些标准。
值得注意的是,如果模型允许从真实图像生成裸体或色情内容,几乎无法阻止其生成涉及儿童的性内容。马斯克公开推广Grok能够生成性图像并描绘真实人物穿着暴露服装的能力,是本案的重要证据之一。xAI公司未对TechCrunch的置评请求作出回应。

其中一名原告Jane Doe 1的高中返校舞会和年鉴照片被Grok篡改为裸体形象。她通过Instagram收到匿名举报,得知这些照片在网络上流传,并被引导至一个Discord服务器,服务器中包含她及其他学校未成年同学的性化图像。
另一名原告Jane Doe 2由刑事调查人员告知,有第三方移动应用利用Grok模型生成了她的性化篡改图像。第三名原告Jane Doe 3同样被刑事调查人员通知,他们在一名被捕嫌疑人的手机中发现了她的色情篡改图像。原告律师表示,因第三方应用仍依赖xAI的代码和服务器,xAI应对此承担责任。
三名原告中有两人仍为未成年人,她们表示因这些图像的传播而承受极大精神痛苦,担忧对其名誉和社交生活造成严重影响。她们请求依据多项保护受剥削儿童和防止企业疏忽的法律,追究xAI的民事责任。


