摘要:
联邦学习使得大量的边缘计算设备在不共享数据的情况下共同学习模型。联邦平均法(FedAvg)是该算法中的一种主要算法,它在所有设备的一小部分上并行运行随机梯度下降(SGD),并每隔一段时间对序列进行平均。尽管它很简单,但在现实环境下却缺乏理论上的保障。本文分析了FedAvg在非iid数据上的收敛性,建立了强凸光滑问题的收敛速度O(1/T),其中T是SGDs的迭代次数。重要的是,我们的界证明了通信效率和收敛速度之间的权衡。由于用户设备可能与服务器断开连接,我们将设备完全参与的假设放宽到部分设备参与,并研究了不同的平均方案;在不严重降低学习速度的情况下,可以实现低设备参与率。我们的结果表明,数据的异质性减缓了收敛速度,这与经验观测相符。此外,我们还为FedAvg在非iid数据上的收敛性提供了一个必要条件:即使使用全梯度,学习率也必须下降;否则,解将偏离最优解。 阅读全文
posted @ 2019-11-17 11:59
穷酸秀才大草包
阅读(3941)
评论(0)
推荐(0)