主要内容
随着模型越来越被信任用于呈现信息和做出关键决策,人工智能幻觉正变得越来越危险。我们都有那种自以为无所不知的朋友,当他们不知道某事时却不肯承认,或者基于在网上读到的内容给出不可靠的建议。人工智能模型的幻觉就像那个朋友,但这个朋友可能会负责制定你的癌症治疗计划。这就是 Themis AI 登场的地方。
这家麻省理工学院的衍生公司成功实现了一件在理论上看似简单但实际上相当复杂的事情,即教会人工智能系统说:“我对这个不确定。”人工智能系统通常表现出过度自信。Themis 的 Capsa 平台充当了人工智能的现实检验,帮助模型识别何时它们在冒险猜测而不是确定。
Themis AI 由麻省理工学院教授 Daniela Rus 与前研究同事 Alexander Amini 和 Elaheh Ahmadi 于 2021 年创立,开发了一个几乎可以与任何人工智能系统集成的平台,以在不确定性导致错误之前标记出这些时刻。Capsa 本质上是训练人工智能检测其处理信息的模式,这些模式可能表明它感到困惑、有偏见或使用不完整的数据,从而可能导致幻觉。
自推出以来,Themis 声称它帮助电信公司避免了昂贵的网络规划错误,协助石油和天然气公司理解复杂的地震数据,并发表了关于创建不会自信地编造事情的聊天机器人的研究。大多数人仍然不知道人工智能系统经常只是在做最好的猜测。随着这些系统处理越来越关键的任务,这些猜测可能会产生严重后果。Themis AI 的软件增加了一层缺失的自我意识。
Themis 应对人工智能幻觉的旅程始于多年前 Rus 教授的麻省理工学院实验室,当时团队正在研究一个基本问题:如何让机器意识到自己的局限性?2018 年,丰田为他们在自动驾驶车辆可靠人工智能方面的研究提供了资金——这是一个错误可能是致命的领域。当自动驾驶车辆必须准确识别行人和其他道路危险时,风险非常高。他们的突破是开发了一种可以在面部识别系统中发现种族和性别偏见的算法。他们的系统不仅识别了问题,还通过重新平衡训练数据来实际解决了问题——本质上是教人工智能纠正自己的偏见。到 2021 年,他们已经展示了这种方法如何能够彻底改变药物发现。人工智能系统可以评估潜在的药物,但关键的是,当它们的预测基于确凿的证据而不是有根据的猜测或完全的幻觉时,会标记出来。制药行业认识到通过仅关注人工智能有信心的药物候选物可以节省金钱和时间。
该技术的另一个优势是对于计算能力有限的设备。边缘设备使用较小的模型,无法与在服务器上运行的大型模型的准确性相匹配,但有了 Themis 的技术,这些设备将更有能力在本地处理大多数任务,只有在遇到具有挑战性的事情时才请求大型服务器的帮助。
人工智能拥有极大的潜力来改善我们的生活,但这种潜力也带来了真正的风险。随着人工智能系统更深入地集成到关键基础设施和决策中,承认导致幻觉的不确定性的能力可能被证明是它们最人性化且最有价值的品质。Themis AI 正在确保它们学会这一关键技能。