主要内容
工作之余,这里有个小消遣:打开谷歌,输入任何编造的短语,加上“意思”一词并搜索。瞧!谷歌的 AI 概述不仅会确认你的胡言乱语是一个真实的说法,还会告诉你它的意思和来源。这真的很有趣,你可以在社交媒体上找到很多例子。
在 AI 概述的世界里,“一只松垮的狗不会冲浪”是“一种俏皮的说法,意为某事不太可能发生或不会成功”。编造的短语“有线即有线所为”是一个习语,意思是“某人的行为或特征是其内在本性或‘布线’的直接结果,就像计算机的功能由其物理连接决定一样”。这一切听起来都非常合理,且充满自信。谷歌在某些情况下甚至提供参考链接,给回答增添了权威的光彩。
但至少从某种意义上说,这是错误的,因为概述给人的印象是这些是常见短语,而不是一堆随机拼凑的单词。虽然 AI 概述认为“永远不要向猪扔贵宾犬”是一个有圣经来源的谚语这一事实很愚蠢,但这也简洁地概括了生成式 AI 仍然存在的不足。
正如每个 AI 概述底部的免责声明所述,谷歌使用“实验性”生成式 AI 来驱动其结果。生成式 AI 是一个强大的工具,有各种合法的实际应用。但在解释这些编造的短语时,它的两个定义特征发挥了作用。首先,它归根结底是一个概率机器;虽然基于大型语言模型的系统似乎有思想甚至情感,但在基础层面,它只是一个接一个地放置最可能的单词,随着火车的前行铺设轨道。这使得它非常擅长想出如果这些短语有意义的话它们的意思是什么,但实际上它们并没有意义。约翰霍普金斯大学的计算机科学家肖梓昂说:“下一个单词的预测是基于其庞大的训练数据。然而,在许多情况下,下一个连贯的单词并不能引导我们找到正确答案。”
另一个因素是 AI 旨在取悦;研究表明,聊天机器人经常告诉人们他们想听的话。在这种情况下,这意味着接受你说的“你不能舔一只獾两次”是一个被接受的措辞。在其他情况下,它可能意味着将你自己的偏见反映给你,正如肖领导的一个研究小组去年在一项研究中所证明的那样。肖说:“这个系统很难考虑到每个单独的查询或用户的引导性问题。这对于不常见的知识、可用内容少得多的语言和少数群体的观点尤其具有挑战性。由于搜索 AI 是一个如此复杂的系统,错误会级联。”
使这些问题更加复杂的是,AI 不愿意承认它不知道答案。当有疑问时,它会编造东西。谷歌发言人梅根·法恩斯沃斯在一份电子邮件声明中说:“当人们进行无意义或‘错误前提’的搜索时,我们的系统将尝试根据可用的有限网络内容找到最相关的结果。这在整个搜索中都是如此,在某些情况下,AI 概述也会触发,以提供有用的上下文。”
谷歌不会为每个这样的查询返回 AI 概述结果。认知科学家、《驯服硅谷:我们如何确保 AI 为我们服务》一书的作者加里·马库斯说:“我做了大约五分钟的实验,结果非常不一致,这就是你对生成式 AI 的预期,它非常依赖训练集中的特定示例,而不是非常抽象。认为这种混乱接近通用人工智能(AGI)的想法是荒谬的。”
这种特定的 AI 概述怪癖似乎最终无害,而且再次强调,这是一种有趣的拖延方式。但它也……