会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Neo_DH
博客园
首页
新随笔
联系
订阅
管理
2024年2月13日
降低零阶方法对维度的依赖
摘要:
对 "Zeroth-order Optimization with Weak Dimension Denpendency" 的note。
阅读全文
posted @ 2024-02-13 23:12 Neo_DH
阅读(17)
评论(0)
推荐(1)
编辑
2023年11月18日
Exploring Recursion in Convex Optimization
摘要:
Recursion in optimiaztion.
阅读全文
posted @ 2023-11-18 18:15 Neo_DH
阅读(14)
评论(0)
推荐(1)
编辑
2023年10月1日
Frank-Wolfe Note
摘要: A brief introduction of Frank-Wolfe
阅读全文
posted @ 2023-10-01 19:52 Neo_DH
阅读(4)
评论(0)
推荐(1)
编辑
2022年5月28日
论文笔记11 - "Linear Convergence in Federated Learning: Tackling Client Heterogeneity and Sparse Gradients"
摘要: 文章证明在deterministic下强突的线性收敛,以及stochastic下强突的次线性收敛。同时,也用证明了采用TopK压缩之后的收敛情况。文中,作者还讨论了infrequence communication的作用。
阅读全文
posted @ 2022-05-28 13:10 Neo_DH
阅读(100)
评论(0)
推荐(1)
编辑
2022年5月23日
胡思乱想(1) - The Mechanism of SVRG
摘要: 胡思乱想又称胡乱BB,XJB讲,扯到哪算哪,并持一种不论对错、言论自由的理念乱扯一通。
阅读全文
posted @ 2022-05-23 22:13 Neo_DH
阅读(78)
评论(0)
推荐(1)
编辑
2021年12月19日
论文笔记(10)-"Closing the Gap: Tighter Analysis of Alternating Stochastic Gradient Methods for Bilevel Problems"
摘要: 很推荐大家看原文,Bilevel Problems很常见,能写成对偶形式的问题都属于这种。这篇blog会讲这篇文章大概在做什么,收敛性的证明。
阅读全文
posted @ 2021-12-19 23:02 Neo_DH
阅读(180)
评论(0)
推荐(0)
编辑
2021年12月14日
论文笔记(9)-"Personalized Federated Learning with Gaussian Processes"
摘要: 不要对这篇blog有什么期待,因为不论是paper还是code我都看不懂,尤其是代码。就当翻译记录吧,看看作者干了啥事,有无实现设定的目标
阅读全文
posted @ 2021-12-14 11:16 Neo_DH
阅读(385)
评论(0)
推荐(0)
编辑
2021年12月8日
论文笔记(8)-"Personalized Federated Learning using Hypernetworks"
摘要: 只能说很像计算机那批人做的,就当看code和想法吧
阅读全文
posted @ 2021-12-08 16:38 Neo_DH
阅读(336)
评论(0)
推荐(0)
编辑
2021年12月7日
Stateful TFF
摘要: 将stateless的Tensorflow Federated改写为stateful。其实有点怀疑这样stateless的clients,每次model用完就扔,重新创建model可能要占时间,以及存储。
阅读全文
posted @ 2021-12-07 17:49 Neo_DH
阅读(87)
评论(0)
推荐(0)
编辑
2021年12月4日
Tensorflow Federated(TFF)框架整理(下)
摘要: 介绍如何写IterativeProcess,来定制自己的FL algorithm。之后关于custom Aggregator class和advanced tutorials就不再追加更新了。
阅读全文
posted @ 2021-12-04 18:05 Neo_DH
阅读(581)
评论(0)
推荐(0)
编辑
下一页
公告