主要内容
神经科技公司 Synchron 推出了其脑机接口的最新版本,该接口利用英伟达技术和苹果 Vision Pro,让瘫痪患者能用意念控制数字和物理环境。
本周在加利福尼亚州圣何塞举行的英伟达 GTC 会议上的视频演示中,Synchron 展示了其系统如何让瘫痪患者 Rodney Gorham 控制家中的多个设备。在澳大利亚墨尔本阳光充足的客厅里,Gorham 能够通过智能音箱播放音乐、调节灯光、打开风扇、启动自动宠物喂食器和运行机器人吸尘器。
Gorham 因患有肌萎缩侧索硬化症(ALS)而失去了声音和大部分身体功能。这种退行性疾病会随着时间削弱肌肉,最终导致瘫痪。他于 2020 年接受了 Synchron 的植入式脑机接口(BCI)。起初,他可以用 BCI 在电脑、iPhone 和 iPad 上打字。现在,使用苹果 Vision Pro,他可以看着家中的各种设备,看到叠加在物理环境上的下拉菜单,然后通过 BCI 选择各种动作,比如只需思考就能调节空调温度。
BCI 解码来自大脑活动的信号并将其转化为输出设备的命令。为提高解码的速度和准确性,Synchron 正在使用英伟达的 Holoscan 人工智能传感器处理平台。更快更准确的解码意味着用户意图动作与 BCI 系统执行命令之间的延迟更短,控制更精确。
近年来,随着埃隆·马斯克的 Neuralink 等公司将曾在学术实验室中使用的笨拙技术商业化,成为实用的辅助设备,BCI 的兴奋度不断上升。尽管仍处于实验阶段,但植入式 BCI 有望为瘫痪患者恢复一些失去的功能。Synchron 旨在构建一个能够在家庭环境中无缝执行各种任务的 BCI 系统。其 CEO Tom Oxley 在接受《连线》独家采访时表示:“它在实时、真实环境中 24/7 运行,在上下文中做出预测非常重要。”为实现这一目标,Synchron 的 BCI 需要接受大量的大脑数据训练。与英伟达合作的一部分,两家公司正在开发 Oxley 所称的“认知 AI”,即大量大脑数据与先进计算的结合,以创建更直观的 BCI 系统。Oxley 认为认知 AI 是继能够独立行动和做出决策的代理 AI 和将 AI 与机器人及其他物理系统集成的物理 AI 之后的下一个 AI 发展阶段。Nvidia 医疗保健和医疗技术高级总监 David Niewolny 表示:“我们看到 Rodney 所做的只是一个开始,但实际上可以开始引入更多的交互。”有了认知 AI,他说,大脑将成为“终极用户界面”。目前,BCI 是用来自单个人的数据进行训练的。给有 BCI 的人一个特定任务,比如思考左右移动光标,在其执行任务时,电极阵列收集大脑神经活动,研究人员对该大脑数据进行“标记”,即指出在测量大脑信号的每个时间点受试者在做什么。该标记数据用于构建一个 AI 模型,学习将特定的大脑活动模式与运动意图相关联。为实现其认知 AI 的愿景,Synchron 计划使用其当前和未来试验参与者的大脑数据来构建一个 AI 模型。