亚马逊的人工智能服务部门在2025年向一个倡导组织提交了110万份疑似网络儿童剥削报告。然而,由于这些报告缺少必要的信息,执法部门未能基于这些报告采取任何行动。参议院近期启动的一项调查,旨在确保类似情况不再发生。

爱荷华州共和党参议员、参议院司法委员会主席查克·格拉斯利本周对八家大型科技公司如何处理强制报告网络儿童剥削案件展开调查。这是对科技公司是否能在网络环境中保护未成年用户安全的持续质疑中的最新举措。

根据法律规定,电子服务提供商必须向国家失踪及被剥削儿童中心(NCMEC)运营的网络举报热线(CyberTipline)报告儿童性剥削事件。2025年,超过1700万份疑似网络儿童性剥削报告被提交,但这些报告往往缺乏促使现实世界采取行动的关键信息。

格拉斯利表示:“我对所获信息感到震惊。根据提供给我办公室的信息,我担心部分公司未能向NCMEC和执法部门提供保护儿童和起诉疑似犯罪者所需的充分数据。”

他向Meta、TikTok、Roblox、Snap、亚马逊AI服务、xAI、Grindr和Discord等八家科技巨头发出信息请求。这些公司占据了提交给NCMEC的儿童剥削报告总数的81%。值得注意的是,谷歌(YouTube母公司)未被列入此次调查范围。

Meta发言人向CNET表示,公司“全力以赴”保护儿童免受这类“可怕犯罪”的侵害,并承诺持续改进报告流程。Grindr、Discord和Roblox也表达了与参议院及NCMEC合作的意愿,Grindr特别强调其交友平台仅面向18岁及以上成年人。其他公司尚未回应置评请求。

此次调查源于2025年NCMEC报告指出,科技公司未能在报告中提供必要的位置信息,也未披露其在AI数据训练中使用儿童性虐待材料的情况。鉴于此前AI被用于生成未经同意的亲密影像及儿童性虐待材料,这一问题尤为令人担忧。

网络儿童剥削问题日益严重。仅2025年,Meta就提交了近1100万份报告,其中120万份涉及疑似儿童贩卖。Meta旗下拥有Facebook、Instagram和WhatsApp等热门平台。NCMEC称,尽管Meta和xAI在报告方面有所改进,但仍存在不足。

NCMEC在2025年致信格拉斯利指出:“许多电子服务提供商经常吹嘘其向网络举报热线提交的报告数量,但未披露数百万份报告缺乏基本信息。这导致儿童在线安全得不到保障,幸存者遭受二次伤害,性犯罪者得以逍遥法外,同时浪费了宝贵且有限的执法资源。”

政府其他部门也在推动科技公司承担儿童安全责任。新墨西哥州陪审团近期裁定Meta因误导用户平台安全性及未能防止儿童剥削负有责任,判处其支付3.75亿美元赔偿。一天后,加州陪审团又判定Meta和谷歌因制造对儿童具有成瘾性的社交媒体平台负有责任。

此外,美国首例因违反新颁布的反AI深度伪造法案“Take It Down Act”而被定罪的案件也于本周二宣判,罪名是制作AI生成的儿童性虐待材料。