论文笔记11 - "Linear Convergence in Federated Learning: Tackling Client Heterogeneity and Sparse Gradients"
内容总结全在摘要里,下面是一些证明
Deterministic

上面这个式子只要求了
对于
可以看作对多步gradient的norm。在convex和strongly convex的条件下可以得到
这里引入的SVRG优势就凸显出来了,可以分离出
而不是 。
Strongly convex
代入可以得到

这里确定
得到
convex
对于convex场景,我们有

代入

Nonconvex
对于nonconvex场景,需要重新确定

代入即可得

Stochastic
相对于随机的场景,要多出因为随机采样而导致的误差项。
Strongly-convex


summary
- 个人认为,他讨论的infrequence communication没啥意义,因为他的学习率是关于H的函数,H变大学习率就减小,它们俩的乘积是固定的。
- 证明过程还是很清晰简洁的
标签:
Paper Disscusion
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· .NET10 - 预览版1新功能体验(一)
2020-05-28 联邦学习FedAvg记录