主要内容
人工智能模型或许终究有点像人类。德克萨斯大学奥斯汀分校、德州农工大学和普渡大学的一项新研究表明,大量语言模型摄入大量流行但质量低下的社交媒体内容后,会经历一种“脑萎缩”,这对在 X 或 TikTok 上长时间滚动浏览的人来说可能很熟悉。
新加坡国立大学即将上任的助理教授洪俊源(Junyuan Hong)表示:“我们生活在一个信息增长速度快于注意力跨度的时代,其中很多信息旨在吸引点击,而非传达真相或深度。我们想知道:当人工智能在同样的内容上接受训练时会发生什么?”
洪俊源和他的同事在预训练中向两个开源大型语言模型提供了不同类型的文本。他们研究了当这些模型被输入高度“吸引人”或广泛分享的社交媒体帖子以及包含“哇”“看”或“仅限今日”等耸人听闻或炒作性文本的帖子的混合体时会发生什么。
然后,研究人员使用几种不同的基准来衡量这种“垃圾”社交媒体饮食对两个开源模型(Meta 的 Llama 和阿里巴巴的 Qwen)的影响。摄入垃圾文本的模型经历了一种人工智能脑萎缩——包括推理能力下降和记忆力退化等认知能力下降。根据两项指标,这些模型在道德上也变得不那么一致,更具精神病态。
这一结果反映了对人类受试者的研究,表明低质量的在线内容对人们的认知能力有不利影响。这一现象的普遍性使得“脑萎缩”在 2024 年被评为牛津词典年度词汇。
洪俊源表示,这些结果对人工智能行业很重要,因为模型构建者可能认为社交媒体帖子是其模型的良好训练数据来源。“对病毒式或引人注目的内容进行训练可能看起来像是在扩大数据,”他说,“但它会悄悄地侵蚀推理、道德和长期的上下文注意力。”
当人工智能本身越来越多地生成社交媒体内容,其中很多似乎是为了吸引参与而优化时,大型语言模型遭受脑萎缩这一事实似乎尤其令人担忧。研究人员还发现,通过低质量内容受损的模型无法通过再训练轻易得到改善。
这些发现还表明,如果在训练中使用用户生成的帖子而不关注帖子的完整性,围绕社交平台构建的人工智能系统(如 Grok)可能会遭受质量控制问题。
“随着越来越多的人工智能生成的垃圾在社交媒体上传播,它会污染未来模型将从中学习的数据,”洪俊源说,“我们的发现表明,一旦这种‘脑萎缩’开始,后来的干净训练也无法完全消除它。”