改善人工智能同时保护隐私的复杂计划 - AI News
改善人工智能同时保护隐私的复杂计划

改善人工智能同时保护隐私的复杂计划

2025-04-14

新闻要点

Apple 称找到在不使用用户数据情况下改进 AI 的方法,将在多系统测试新训练系统。通过设备对比合成数据集与用户样本,不访问用户数据且数据不出设备,借此提升 AI 输出。该计划运用差分隐私技术保护隐私,试图扭转 AI 发展困境。

- Apple 新 AI 训练系统不访问用户数据改进 AI

- 新系统在多系统测试 尝试扭转 AI 发展困境

- 运用差分隐私技术 保护用户数据隐私

主要内容

苹果称已找到一种无需基于用户数据训练或从其 iPhone 和 Mac 中复制数据,就能提升其 AI 模型的方法。在彭博社率先报道的一篇博客文章中,该公司概述了其计划,即让设备将合成数据集与选择参与其设备分析计划的用户近期电子邮件或消息样本进行比较。苹果设备能够确定哪些合成输入最接近真实样本,并通过发送“仅指示哪些变体最接近采样数据的信号”将其传递给公司。据苹果称,这样它就不会访问用户数据,且数据也不会离开设备。然后,苹果将使用被最频繁选择的假样本改进其 AI 文本输出,如电子邮件摘要。目前,据彭博社的马克·古尔曼称,苹果仅在合成数据上训练其 AI 模型,可能导致响应不太有帮助。苹果在推出其旗舰苹果智能功能方面一直面临困难,因为它推迟了一些功能的推出并更换了 Siri 团队负责人。但现在,据古尔曼称,苹果正试图通过在 iOS 和 iPadOS 18.5 以及 macOS 15.5 的测试版中引入其新的 AI 训练系统来扭转局面。至少从 2016 年推出 iOS 10 起,苹果就一直在宣扬其使用一种名为差分隐私的方法来保护用户数据隐私,并已将其用于改进 AI 驱动的 Genmoji 功能。这也适用于该公司的新 AI 训练计划,因为苹果表示,在更广泛的数据集中引入随机信息将有助于防止将数据与任何一个人关联起来。