Google通过机密联合分析增强数据隐私

Google 发布机密联邦分析(CFA)技术

Google 近日宣布了一项名为 机密联邦分析(Confidential Federated Analytics, CFA) 的技术,旨在提高数据处理透明度,同时保护用户隐私。CFA 基于联邦分析,结合机密计算,确保仅执行预定义且可检查的计算,而不会将原始数据暴露给服务器或工程师。

背景与挑战

  • 联邦分析 允许在用户设备上进行分布式数据分析,设备仅发送聚合统计数据而非原始数据。然而,用户无法验证数据如何处理,这带来了信任和安全问题。

CFA 的核心技术

  • 可信执行环境(TEE):CFA 使用 TEE 限制计算仅执行预定义分析,并防止未经授权访问原始数据。
  • 公开可检查性:所有与隐私相关的服务器端软件均公开可检查,允许外部验证数据处理过程。

应用实例

  • Gboard 键盘:Google 已在 Android 键盘 Gboard 中部署 CFA,用于检测超过 900 种语言中的新单词。相比之前的本地差分隐私方法(LDP-TrieHH),CFA 在处理速度和可扩展性上有显著提升。例如,CFA 在两天内处理了 3,600 个缺失的印尼语单词,同时提供了更强的差分隐私保证。

CFA 的工作流程

  1. 数据收集与加密:设备本地存储相关数据,并在上传前加密。
  2. 访问策略执行:数据仅能解密用于预批准的计算,策略结构化。
  3. TEE 执行:数据处理在 TEE 中进行,确保机密性并防止未经授权的修改。
  4. 差分隐私算法:系统应用基于稳定性的直方图方法,在识别常用单词前添加噪声。
  5. 外部可验证性:处理管道、软件和加密证明记录在公共透明账本中,供外部审计。

未来展望

  • Google 计划将机密联邦计算应用于更广泛的联邦学习任务,支持在严格隐私保护下进行 AI 模型训练。
  • CFA 预计将集成到 Android 隐私计算核心 和其他隐私保护系统中。

专家评价

Google Cloud 开发者关系总监 Richard Seroter 表示,CFA 是联邦学习和计算领域的重要进步,尤其解决了隐私保护者的担忧。

参考资料

阅读 17 (UV 17)
0 条评论