01 2021 档案

摘要:匆忙记下需要整理的内容。阅读之前建议了解Mirror Descent等优化方法(疯狂暗示)。证明补不全了,有时间看了dual averaging之后再看吧 阅读全文
posted @ 2021-01-27 20:19 Neo_DH 阅读(296) 评论(0) 推荐(0) 编辑
摘要:如何在Federated Learning中使用adaptive method,他们的reformula很棒,以及学习一下adaptive 方法的证明。至于文中最关键的如何将Local update和server model联系起来证明收敛性写的太模糊了,看不太懂。未完待续,欢迎留言讨论。 阅读全文
posted @ 2021-01-22 23:21 Neo_DH 阅读(1231) 评论(0) 推荐(0) 编辑
摘要:写不出论文了,兴趣使然地开一个论文笔记系列,不知道毕业的时候能写到多少篇(苦笑)。论文名称"Clustered federated learning: Model-Agnostic distributed multi-Task optimization under privacy constraints",讲的是如何用gradients来划分用户 阅读全文
posted @ 2021-01-15 22:00 Neo_DH 阅读(1245) 评论(0) 推荐(0) 编辑
摘要:关于mirror descent的整理,2/2/2021主要更新:详细说明了MD和GD的区别 阅读全文
posted @ 2021-01-09 03:52 Neo_DH 阅读(1554) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示