会员
周边
众包
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Neo_DH
博客园
首页
新随笔
联系
订阅
管理
随笔 - 51
文章 - 0
评论 - 15
阅读 -
41029
05 2021 档案
论文笔记(6)-"On the Cluster-aware Supervised Learning (CluSL): Frameworks, Convergent Algorithms, and Applications"
摘要:这篇文章主要是借鉴一下写作,怎么构建上下文,具体内容就不呈现了。里面细节很多,没有办法一一展示在博客里,可以按照他的行文效仿一下,文章的证明部分很有启发。
阅读全文
posted @
2021-05-20 18:01
Neo_DH
阅读(70)
评论(0)
推荐(0)
编辑
frp配置
摘要:服务器在设在内网里,搬机子又没其他地方放,比较权衡之后,买了一个轻量服务器做内网穿透
阅读全文
posted @
2021-05-16 18:12
Neo_DH
阅读(235)
评论(0)
推荐(0)
编辑
论文笔记(5)-"Incentive Design for Efficient Federated Learning in Mobile Networks: A Contract Theory Approach"
摘要:中间的模型转换省略掉了,可以看原文,写的比较简略。总的感觉这个论文写的不是心目中完美的类型,在总结中写了自己的一点问题,而且这篇文章代码也没找到,我还挺想看看他们怎么做的。话说很久没更新了,之后会恢复更新,最近动力满满。
阅读全文
posted @
2021-05-11 22:48
Neo_DH
阅读(178)
评论(0)
推荐(0)
编辑
公告
昵称:
Neo_DH
园龄:
7年1个月
粉丝:
22
关注:
18
+加关注
<
2025年3月
>
日
一
二
三
四
五
六
23
24
25
26
27
28
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
最新随笔
1.降低零阶方法对维度的依赖
2.Exploring Recursion in Convex Optimization
3.Frank-Wolfe Note
4.论文笔记11 - "Linear Convergence in Federated Learning: Tackling Client Heterogeneity and Sparse Gradients"
5.胡思乱想(1) - The Mechanism of SVRG
6.论文笔记(10)-"Closing the Gap: Tighter Analysis of Alternating Stochastic Gradient Methods for Bilevel Problems"
7.论文笔记(9)-"Personalized Federated Learning with Gaussian Processes"
8.论文笔记(8)-"Personalized Federated Learning using Hypernetworks"
9.Stateful TFF
10.Tensorflow Federated(TFF)框架整理(下)
我的标签
Paper Disscusion
(12)
code
(5)
优化
(5)
LeetCode
(4)
DL
(4)
Tensorflow
(3)
课程笔记
(3)
Optimization
(2)
Linux
(2)
federated learning
(2)
更多
随笔档案
2024年2月(1)
2023年11月(1)
2023年10月(1)
2022年5月(2)
2021年12月(5)
2021年11月(5)
2021年6月(2)
2021年5月(3)
2021年2月(2)
2021年1月(4)
2020年12月(1)
2020年10月(2)
2020年9月(1)
2020年8月(2)
2020年7月(1)
2020年6月(1)
2020年5月(7)
2020年4月(3)
2019年8月(1)
2019年7月(1)
2019年5月(2)
2019年4月(2)
2018年4月(1)
更多
相册
背景图片(49)
阅读排行榜
1. 高斯分布相乘、积分整理(12493)
2. 稀疏光流特征点跟踪(KLT)(4443)
3. 联邦学习FedAvg记录(2210)
4. 三种联邦学习的个性化方法及应用(2121)
5. 多目标损失中权重学习(1841)
评论排行榜
1. 稀疏光流特征点跟踪(KLT)(7)
2. 三种联邦学习的个性化方法及应用(4)
3. Tensorflow Federated(TFF)框架整理(上)(3)
4. [自用] Linux学习整理(1)
推荐排行榜
1. Tensorflow Federated(TFF)框架整理(上)(2)
2. 三种联邦学习的个性化方法及应用(2)
3. 对拜占庭攻击鲁棒的异分布数据分布学习的梯度更新方法RSA(2)
4. 降低零阶方法对维度的依赖(1)
5. Exploring Recursion in Convex Optimization(1)
最新评论
1. Re:Tensorflow Federated(TFF)框架整理(上)
@Neo_DH
好的好的,感谢博主😊
--MoneYaaa
2. Re:Tensorflow Federated(TFF)框架整理(上)
@MoneYaaa 是的,这里tff只是需要一个模型,之后的训练是有按他自己方式做的。然后callback函数是用在训练、评估的时候,所以keras的肯定是不能用的tff里的。具体tff的有没有提供类...
--Neo_DH
3. Re:Tensorflow Federated(TFF)框架整理(上)
博主你好,我看了你写的文章后大有收获。但我有一个问题,当我用keras转换器的方法写模型时,能否在训练的时候加回调函数?(比如早停)我看了关于keras回调函数的使用,基本都是写在modle.fit(...
--MoneYaaa
4. Re:三种联邦学习的个性化方法及应用
@Neo_DH 感谢!...
--UMR-cc
5. Re:三种联邦学习的个性化方法及应用
@UMR-cc 文章中没有说q,group的数量怎么得到。就像KMeans一样,可能不知道潜在应该分多少类,可以通过eblow rule一样得到,也可以像谱聚类一样,设定阈值(cluster fede...
--Neo_DH
点击右上角即可分享