计算机与现代化 ›› 2025, Vol. 0 ›› Issue (09): 109-118.doi: 10.3969/j.issn.1006-2475.2025.09.016
摘要:
摘要:联邦学习作为一种分布式机器学习框架,允许用户在不泄露原始数据的情况下通过共享模型参数来协作训练模型。然而,模型参数仍然可能包含大量隐私敏感信息,直接对其共享存在泄露用户隐私信息的风险。本地化差分隐私能够抵御具有任意背景知识的攻击者,为隐私信息提供更全面的保护。由于联邦学习的参数数据高维度和多轮次的特点,给本地化差分隐私应用于联邦学习带来了挑战。为此,本文提出一种满足本地化差分隐私的联邦学习算法FedLDP。该算法利用维度选择策略(EMDS)挑选出用于全局聚合的重要参数维度;采用拉普拉斯机制扰动所选的参数维度;为了提高模型的学习效率和整体性能,设计增量隐私预算分配策略调整迭代过程中的隐私预算分配方式,优化模型训练过程。理论分析证明FedLDP算法满足[ε]-本地化差分隐私。实验结果表明,在MNIST和Fashion-MNIST数据集上,FedLDP算法能够在相同级别的隐私约束下使模型准确率分别提升5.07百分点和3.01百分点,优于现有方法。
中图分类号: