CORC  > 自动化研究所  > 中国科学院自动化研究所  > 毕业生  > 博士学位论文
题名面向隐私保护的深度学习研究
作者程安达
答辩日期2023-05-20
文献子类博士
关键词隐私保护,深度学习,差分隐私,网络结构搜索,联邦学习
英文摘要

深度学习模型的开发和应用离不开大规模训练数据的收集和使用。然而,这
些数据中通常包含众多隐私信息,由此训练得到的深度学习模型可能存在严重
的隐私泄露风险。近年来,由于用户隐私信息泄露而导致的安全问题频发,各国
对数据隐私保护问题日益重视,面向隐私保护的深度学习技术研究受到学术界
和工业界的广泛关注。然而在实际应用中,现有的隐私保护深度学习方法虽能在
一定程度上提高系统的隐私性,但同时也会对模型精度造成灾难性破坏,严重影
响了深度学习在现实场景中的应用。因此,如何在保证隐私性的情况下提高深度
学习模型的精度,成为当前面向隐私保护的深度学习研究中亟待解决的一个问
题。针对这一问题,本文从神经网络结构设计、优化算法设计、隐私保护机制设
计、部署的模型保护等多个角度开展研究,全面提升隐私深度学习的可用性和实
用性。本文的研究内容及创新点归纳如下:
1. 面向隐私保护的深度神经网络结构搜索。针对隐私保护深度学习中,由
于模型结构不适应差分隐私学习算法而导致的学习效果差这一问题,本文提出
一种面向隐私保护的神经网络结构搜索方法。首先,设计了一种针对隐私保护深
度学习任务的搜索空间,将激活函数的选择与拓扑结构的构建作为网络结构搜
索的主要目标。其次,为使搜索到的模型结构更加适应差分隐私优化算法的训练
过程,提出了一种能够感知差分隐私操作的候选模型训练方法。实验结果表明,
搜索得到的神经网络结构在隐私保护图像分类任务的多个数据集上取得了当前
最先进的测试精度。并且,通过对搜索到的模型结构进行分析,本文为面向隐私
保护的深度神经网络结构设计提供了一些新的发现和指导。
2. 基于本地正则化和稀疏化的联邦学习隐私保护。针对满足用户级差分隐
私的联邦学习中模型精度差的问题,本文进行了理论分析,发现提升学习效果的
关键在于,在进行差分隐私操作之前自然地降低原始本地模型更新的范数。据
此,本文提出两种技术对联邦学习的本地学习过程进行改进。首先,提出有界的
本地正则化技术,通过在本地学习目标中添加正则项来限制本地更新的范数不
超过差分隐私的裁剪阈值。其次,提出本地更新稀疏化技术,在不影响本地模型
更新效果的情况下,通过减少实际更新的参数量,进一步减小本地模型更新的范
数。本文对所提方法的收敛性和隐私保护性进行了理论分析。实验结果表明,在
相同的隐私保护程度下,与同期方法相比,所提方法在收敛速度和模型精度上都
具有显著优势。
3. 基于自适应椭圆高斯机制的深度学习隐私保护。针对差分隐私优化算法
中,由于添加各向同性的高斯噪声而导致学习效果差这一问题,本文首先提出了 一种具有差分隐私保证的椭圆高斯机制。通过在高维算法的输出中添加非各向
同性的高斯噪声使算法满足差分隐私性。其次,针对椭圆高斯机制应用于深度学
习任务时的参数选择问题,本文提出一种基于优化的自适应参数选择方法。以
最小化噪声干扰后的梯度向量与原始梯度向量之间的期望误差为目标,对椭圆
高斯机制中的投影矩阵和噪声强度矩阵进行优化。并根据参数共享程度的不同,
进行了三种不同实现。实验结果表明,与已有的差分隐私优化算法相比,所提出
的方法能够取得更高的模型精度。
4. 面向黑盒模型隐私的生成式精度无损保护方法。针对现有的黑盒模型隐
私保护技术对模型精度的损害问题,本文提出一种具有精度保持功能的生成式
保护方法。已有的保护方法虽然能在一定程度上降低针对黑盒模型攻击的成功
率,但会改变模型输出的预测类别,从而影响模型精度。本文提出能够保持预测
类别排序的生成器模块,其输入是目标模型输出的预测分数向量,输出是扰动后
的预测向量。扰动目标是最大限度地增大输出向量与输入向量之间的差异,同时
保持输出分数向量的类别排序与输入向量一致,从而在保持目标模型预测类别
不变的情况下,对敌手模型的训练过程造成最大程度的干扰。实验结果表明,本
方法能够在完全保持目标模型精度的情况下,有效抵御模型功能窃取攻击和基
于知识蒸馏的模型克隆攻击,并且防御效果显著优于同期方法。

语种中文
页码128
内容类型学位论文
源URL[http://ir.ia.ac.cn/handle/173211/51668]  
专题毕业生_博士学位论文
推荐引用方式
GB/T 7714
程安达. 面向隐私保护的深度学习研究[D]. 2023.
个性服务
查看访问统计
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。


©版权所有 ©2017 CSpace - Powered by CSpace