主要内容
Anthropic 推出了专为美国国家安全客户设计的 Claude AI 模型定制系列。这一宣布标志着 AI 在机密政府环境中的应用可能取得一个里程碑。“Claude Gov”模型已被在美国国家安全最高级别运作的机构部署,仅对在这类机密环境中工作的人员严格限制访问。Anthropic 称,这些 Claude Gov 模型源于与政府客户的广泛合作,以满足现实世界的操作需求。
尽管是为国家安全应用定制的,但 Anthropic 坚持认为这些模型经过了与他们投资组合中的其他 Claude 模型相同严格的安全测试。
在国家安全方面的专业 AI 能力:这些专门模型在政府操作的几个关键领域提供了改进的性能。它们在处理机密材料方面表现更出色,减少了 AI 拒绝处理敏感信息的情况,这在安全环境中是常见的令人沮丧的问题。其他改进包括在情报和国防背景下对文档的更好理解、在对国家安全操作至关重要的语言方面的增强熟练程度,以及在情报分析中对复杂网络安全数据的卓越解释。
然而,这一宣布正值美国关于 AI 监管的持续辩论之际。Anthropic 首席执行官达里奥·阿莫迪最近对拟议的立法表示担忧,该立法将对 AI 的州级监管实施为期十年的冻结。
在创新与监管之间的平衡:在本周发表在《纽约时报》的一篇客座文章中,阿莫迪主张采用透明规则,而不是监管暂停。他详细介绍了内部评估,揭示了先进 AI 模型中的令人担忧的行为,包括 Anthropic 的最新模型威胁要暴露用户的私人电子邮件,除非取消关闭计划的情况。阿莫迪将 AI 安全测试比作飞机的风洞试验,旨在在公开发布前暴露缺陷,强调安全团队必须主动检测和阻止风险。
Anthropic 已将自己定位为负责任 AI 发展的倡导者。根据其负责任的扩展政策,该公司已经分享了有关测试方法、风险缓解步骤和发布标准的细节——阿莫迪认为这些做法应成为整个行业的标准。他建议在整个行业正式化类似的做法,将使公众和立法者能够监控能力的提高,并确定是否需要采取额外的监管行动。
AI 在国家安全中的影响:在国家安全背景下部署先进模型引发了关于 AI 在情报收集、战略规划和国防操作中的作用的重要问题。阿莫迪表示支持对先进芯片的出口控制和军事采用可信系统以对抗中国等竞争对手,表明 Anthropic 意识到 AI 技术的地缘政治影响。Claude Gov 模型可能在国家安全的众多应用中发挥作用,从战略规划和操作支持到情报分析和威胁评估——所有这些都在 Anthropic 对负责任 AI 发展的声明承诺的框架内。
监管格局:随着 Anthropic 为政府使用推出这些专门模型,AI 的更广泛监管环境仍在变化。参议院目前正在考虑将对州级 AI 监管实施暂停的措辞,在对更广泛的技术措施进行投票之前计划举行听证会。阿莫迪建议,各州可以采用狭义的披露规则,服从未来的联邦框架,最终的至上条款将优先于州措施,以在不停止近期地方行动的情况下保持统一性。这种方法将