近日,有研究指出,《纽约时报》及其他主要新闻媒体可能在不知情的情况下,发布了大量由人工智能生成的文章。此次讨论起因于今年早些时候一篇《纽约时报》“现代爱情”专栏文章的争议。该文作者凯特·吉尔根承认,她在写作过程中使用了包括ChatGPT、Claude和Gemini等聊天机器人作为“灵感、指导和校正”的工具,但坚称AI只是作为协作编辑,而非内容生成者。

然而,随着AI技术的广泛应用,频繁咨询聊天机器人不可避免地会影响作者的写作风格。对此,部分AI研究人员利用初创公司Pangram Labs的AI检测工具,对美国报纸中AI内容的渗透程度进行了调查。其10月发布的预印本研究显示,约有9%的新发表文章部分或全部由AI生成,主要集中在较小的地方媒体。

更令人关注的是,在《纽约时报》、《华尔街日报》和《华盛顿邮报》等“权威报纸”的观点类文章中,AI生成内容的比例是新闻报道的六倍以上。虽然许多免费AI检测工具准确性不足,甚至出现将玛丽·雪莱的《弗兰肯斯坦》误判为100% AI生成的情况,但Pangram的检测工具被认为较为可靠。

值得注意的是,AI检测主要集中在观点类文章,这些文章通常由非专业记者撰写,缺乏严格的审查,因而更容易出现AI生成内容。这也反映出AI生成内容在科学期刊中泛滥的现象,新闻媒体同样难以幸免。

目前,许多新闻机构已开始与AI技术深度结合。《华盛顿邮报》推出了AI生成的播客摘要和读者问答聊天机器人,《纽约时报》利用AI生成新闻标题,彭博社提供AI生成的文章摘要,美联社高层甚至表示抵制AI是“徒劳的”。

然而,AI工具进入新闻编辑室也存在风险。上月,一名《Ars Technica》资深记者因误用AI生成的虚假引用被解雇,媒体不得不撤回相关报道。该记者虽未用AI撰写文章,但在用聊天机器人整理笔记时误采了AI“幻觉”生成的引用。

随着AI技术的不断发展,新闻行业如何平衡创新与真实性,成为亟需解决的重要课题。