题名 | 面向注意力模型的隐私保护研究 |
作者 | 卢嘉昊 |
答辩日期 | 2022-05-20 |
文献子类 | 硕士 |
授予单位 | 中国科学院自动化研究所 |
授予地点 | 中国科学院自动化研究所 |
导师 | 程健 |
关键词 | 隐私保护 注意力模型 梯度泄露攻击 分布式学习 可信人工智能 |
学位名称 | 工学硕士学位 |
学位专业 | 模式识别与智能系统 |
英文摘要 | 近年来,深度学习依靠海量数据作为训练支撑,在计算机视觉、自然语言 处理、语音识别等领域取得了巨大的成功。然而,海量数据收集可能引起潜在 的隐私风险:收集数据的服务商可能会永久保存这些数据,而被收集数据的用 户无法删除数据,也无法控制这些数据的使用。在此隐私保护的需求下,现有 的分布式学习系统往往要求用户进行数据隔绝,即互相不共享数据,仅通过共 享模型梯度来协同训练人工智能模型。这种分布式训练框架很好地避免了隐私 的直接泄露。 然而,在分布式学习系统中,不共享数据是否就能保障足够的隐私安全性? 本文针对基于注意力机制的模型结构,深入分析了注意力模型的内在隐私漏洞, 提出了在注意力模型上进行隐私攻击和防御的新方法。本文的主要贡献如下: • 分析了注意力机制的内在隐私漏洞,并推导了针对注意力模块的闭式解 梯度泄露攻击,在满足特定条件的注意力网络中,能够仅基于模型梯度,通过 闭式解攻击算法,实现对输入的无损恢复,从而最大程度地攻击用户隐私。 • 对于更广泛的注意力模型结构,本文提出了一种基于优化的梯度泄露攻 击方法。通过对可学习位置编码模块的梯度进行额外监督,通过优化算法找到 近似于原始输入的一个解。实验结果表明,这种方式得到的攻击效果能显著超 越之前最好的方法。 • 针对注意力网络的隐私缺陷和上述的两种攻击手段,本文调研了几种不 同的隐私防御手段,其中,将可学习位置编码替换成固定位置编码的防御策略 能够在仅轻微影响模型性能的情况下破坏隐私攻击的成立条件,在保证模型精 度的情况下最大程度地保证了模型的隐私安全性。 |
语种 | 中文 |
页码 | 76 |
内容类型 | 学位论文 |
源URL | [http://ir.ia.ac.cn/handle/173211/48480] |
专题 | 自动化研究所_毕业生 |
推荐引用方式 GB/T 7714 | 卢嘉昊. 面向注意力模型的隐私保护研究[D]. 中国科学院自动化研究所. 中国科学院自动化研究所. 2022. |
个性服务 |
查看访问统计 |
相关权益政策 |
暂无数据 |
收藏/分享 |
除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。
修改评论