主要内容
如今,Sora 允许你控制自己的 AI 分身,让你在应用程序中对深度伪造版本的自己的出现方式和地点有更多发言权。此次更新正值 OpenAI 急于表明它实际上关心用户的担忧之际,因为一场完全可以预见的 AI 垃圾浪潮正威胁着要占据互联网。
新的控制功能是周末一系列更新中的一部分,旨在稳定 Sora 并管理其信息流中酝酿的混乱。Sora 本质上是“一个用于深度伪造的 TikTok”,可以制作几乎任何东西的 10 秒视频,包括自己或他人的 AI 生成版本(包括声音)。OpenAI 将这些虚拟出现称为“客串”。批评者称其为潜在的虚假信息灾难。
OpenAI 的 Sora 团队负责人 Bill Peebles 表示,用户现在可以限制 AI 生成的自己在应用程序中的使用方式。例如,你可以阻止你的 AI 自我出现在涉及政治的视频中,阻止它说某些单词,或者——如果你讨厌芥末——阻止它出现在任何与这种可怕的调味品相关的地方。OpenAI 员工 Thomas Dimson 表示,用户还可以为他们的虚拟分身添加偏好,例如在每个视频中让它们“戴着‘#1 番茄酱粉丝’棒球帽”。
这些保障措施受到欢迎,但像 ChatGPT 和 Claude 这样的 AI 驱动机器人提供爆炸物、网络犯罪或生物武器提示的历史表明,在某个地方肯定会有人想出绕过它们的方法。人们已经绕过了 Sora 的另一个安全功能,即一个微弱的水印。Peebles 表示,该公司也在“努力”改进这一点。Peebles 表示,Sora 将继续“在加强限制方面不断努力”,并在未来“将增加让你保持控制的新方法”。
自该应用程序推出以来的一周内,Sora 一直在纵容互联网充斥着 AI 生成的垃圾。宽松的客串控制——基本上是对相互关注的群体、你批准的人或“所有人”等的是或否——是一个特别的问题。该平台的不知情明星,正是 OpenAI 首席执行官 Sam Altman,他展示了这种危险,出现在各种嘲讽视频中,显示他在偷窃、说唱,甚至烤一只死去的皮卡丘。