联邦学习需要参与者在每一次的本地训练后,上传所更新的模型参数并与其他参与者共享,而参数更新中仍有可能包含所有者的敏感信息
解决方案:
加密方法(安全多方计算、同态加密)通过将明文编码为密文的方式,只允许特定人员解码,为数据隐私保护提供了有效手段,但这往往需要极大的计算开销,较难应用于实际的联邦学习场景中
数据扰动(差分隐私)通过将明文编码为密文的方式,只允许特定人员解码,为数据隐私保护提供了有效手段,但这往往需要极大的计算开销,较难应用于实际的联邦学习场景中
如果选择梯度剪枝的话是需要考虑选择哪一部分剪枝的梯度参与训练
(将梯度剪枝与加密的防御体系结合)
一般与轻量级进行结合吗?
基于 Fisher 信息矩阵的 Dropout 机制,FisherDropout(差分隐私在什么地方使用呢?)
用差分隐私去解决——>轻量化、易部署
梯度剪枝方法:Federated Dropout(FedDropout)
是平衡安全性与可用性的关键参数
。决 定了差分隐私方法所添加噪声方差的大小。较小的值会使安全性变高,但也会令数据的可用性变得更差。
当取值为 8 时,基于差分隐私保护的联邦学习在训练中可能需要额外使用 100 倍左右的数据量,才可达到与不含差分隐私的联邦学习一致的模型准确率。而在集中式学习中,这往往只需要付出大约 10 倍的训练量。
轻量化联邦学习的方式:剪枝、量化、蒸馏
满足差分隐私的联邦学习:与经典的联邦学习不同的地方为增加了客户端随机扰动参数
使用差分隐私进行数据扰动: