维基媒体对生成式人工智能的长期模糊态度终于画上句号。

2024年3月27日,据OSCHINA报道,维基媒体发布了新的政策声明,正式明确禁止使用大型语言模型(LLM)来生成或改写条目内容。该政策获得了维基媒体庞大志愿编辑社区的压倒性支持。

政策升级:从“建议避免”到“严格禁止”

维基媒体此次修订彻底结束了之前含糊其辞的表述。

核心冲突:维基媒体指出,LLM生成的文本通常违反网站的多项核心内容政策,包括事实准确性和来源可靠性。

改写限制:除了禁止利用AI从零创建条目外,利用AI大规模改写现有条目也被明令禁止。

仅留小范围辅助窗口

尽管发布了禁令,维基媒体并未完全否定AI的工具属性,但对其使用场景设定了严格界限:

  • 基础编辑建议:编辑者可以使用LLM为自己的条目提供基础编辑建议,但必须经过严格的人类审核。
  • 严禁引入新内容:AI只能在措辞或结构上提供优化,绝对禁止引入模型生成的任何新事实或观点。
  • 翻译规范:使用LLM辅助翻译条目时,必须严格遵守维基媒体的LLM辅助翻译指南,确保翻译准确无误。

处罚标准:内容为核心,风格非唯一依据

为避免误判,维基媒体还制定了谨慎的评估标准:

  • 警惕风格误判:考虑到部分编辑的写作风格可能与AI相似,政策明确处罚不能仅凭语言特征判定。
  • 综合判断:处罚需结合编辑近期的修改记录,重点考察文本是否符合核心内容政策。

社区共识:以40票对2票通过

这项新政策并非闭门制定,而是通过编辑社区的民主投票产生。相关数据显示,政策以40票赞成、2票反对获得通过。编辑们普遍担忧AI生成的错误信息和“幻觉”会侵蚀维基百科作为全球最可靠知识库的根基。

结语:捍卫人类编辑者的尊严

此次政策明确了维基百科对AI生成内容的态度,旨在保障信息的真实性和权威性,同时维护人类编辑者在知识建设中的核心地位。