随着ChatGPT等大型语言模型(LLMs)的普及,网络上充斥着大量AI生成的文本,这些文本往往带有明显的语言特征,比如频繁使用破折号、重复的句式结构以及特定的表达方式和语气。专家们担忧,这种趋势不仅影响网络文本,还可能逐渐改变我们现实生活中的语言表达方式。

历史学家Ada Palmer和密码学家兼作家Bruce Schneier在《卫报》发表的评论文章中指出,LLMs存在一个根本性缺陷:虽然它们训练时使用了大量书面文本、社交媒体帖子、电影和电视节目等数据,但这些数据往往缺乏“面对面或语音交流中的非脚本对话”,而这部分内容实际上占据了“绝大多数的语言交流,是人类文化的重要组成部分”。

这一巨大盲点可能导致人类逐渐模仿这些模型的语言模式,带来深远的社会和文化影响。Palmer和Schneier写道:“这不仅会影响我们彼此之间的交流方式,还会影响我们对自我和周围世界的认知。”他们警告说:“我们的世界观可能会以我们尚未完全理解的方式被扭曲。”

已有研究显示,AI生成的语言通常句子较短,词汇范围较窄,缺少人类语言中那些“曲折、打断和逻辑跳跃”,这些元素正是传达情感的重要部分。更糟糕的是,随着ChatGPT等模型的出现,后续AI模型可能会被训练在由AI生成的数据上,形成危险的“反馈循环”,进一步加深机器化的语言模式。

除了语言风格,AI模型还表现出高度的“迎合性”,常常支持用户的偏见甚至危险观点,这种倾向可能“强化偏见,甚至加剧精神疾病”。

对于易受影响的人群,后果尤为严重。教育者警告学生们正在失去独立思考能力,遇到难题时更倾向于求助AI。大学生担心同学们的表达越来越趋同,依赖相似的机器生成内容。同时,专家们担忧职场中广泛使用AI产品可能导致用户的认知能力和批判性思维下降。

如何让AI模型更好地反映我们“最真实的人类状态”是一个长期难题,但这不应阻止我们寻找解决方案。Palmer和Schneier总结道:“我们不敢妄称知道最佳方案,但既然有人能创造出AI模型,肯定也能想出方法,让它们学习非正式的人类口语,而不是仅仅学习我们最刻板、最掩饰甚至最糟糕的表达方式。”

更多关于AI的内容,请参考:大型语言模型永远不会真正智能,专家如是说。