摘要: 具体文章就不讲了,只讲这些文章干嘛了吧。总的来说,我越来越感觉,federated learning和decomposition problem很相似,可以借鉴之前decomposition做的研究。 阅读全文
posted @ 2021-11-26 21:51 Neo_DH 阅读(80) 评论(0) 推荐(0) 编辑
摘要: 这篇主要介绍高级层面的API,至少先跑起来然后再来写自己的算法。强烈推荐用docker,在tensorflow-gpu-2.5.1的Image安装stable版本的(当前0.19版本的是需要2.5.x版本的tensorflow,conda源最新的才2.4.1,tff文档自己都不写依赖的...),然后tensorflow-gpu-2.7.x的image上安装nightly版本的(推荐nightly)。之前也写过tff的整理,不过那时候真的是太难用了,不如我自己模拟的清楚一点,现在0.19版本的在high-level层面很多都给你干了,比如model直接from_keras_model,也有现成的iterativeprocess。 阅读全文
posted @ 2021-11-23 02:19 Neo_DH 阅读(885) 评论(3) 推荐(2) 编辑
摘要: 之前存在日记里,当成课程笔记看的,但是觉得有必要发出来,和之前发的operator和ADMM有关系可以一起看(例如,在decomposition中使用primal decomposition给定一个变量x值如何求另一个变量的minimal,例如有约束的时候可能要迭代使用operator得到fixed point),之后会将几篇论文讲一些例子。 阅读全文
posted @ 2021-11-14 21:56 Neo_DH 阅读(209) 评论(0) 推荐(0) 编辑
摘要: 建议先看前一篇Proximal与对偶,再来理解operator。 阅读全文
posted @ 2021-11-08 03:07 Neo_DH 阅读(174) 评论(0) 推荐(0) 编辑
摘要: 参考于邓康康-原始对偶角度下的几类优化方法的博文,只记录了自己感兴趣的地方和所得 阅读全文
posted @ 2021-11-05 22:51 Neo_DH 阅读(130) 评论(0) 推荐(0) 编辑
摘要: 这两篇博客介绍了为什么机器学习中超参数很难调,以及可行的解决方案。值得读一读,等下周(2021年端午节后)不忙了然后找个例子实现下。 阅读全文
posted @ 2021-06-08 10:47 Neo_DH 阅读(59) 评论(0) 推荐(0) 编辑
摘要: 证明部分自己推了一下,发现有些不等式方向或者符号是反着的...等有时间了再推一下(下次再说) 阅读全文
posted @ 2021-06-07 16:35 Neo_DH 阅读(66) 评论(0) 推荐(0) 编辑
摘要: 这篇文章主要是借鉴一下写作,怎么构建上下文,具体内容就不呈现了。里面细节很多,没有办法一一展示在博客里,可以按照他的行文效仿一下,文章的证明部分很有启发。 阅读全文
posted @ 2021-05-20 18:01 Neo_DH 阅读(66) 评论(0) 推荐(0) 编辑
摘要: 服务器在设在内网里,搬机子又没其他地方放,比较权衡之后,买了一个轻量服务器做内网穿透 阅读全文
posted @ 2021-05-16 18:12 Neo_DH 阅读(226) 评论(0) 推荐(0) 编辑
摘要: 中间的模型转换省略掉了,可以看原文,写的比较简略。总的感觉这个论文写的不是心目中完美的类型,在总结中写了自己的一点问题,而且这篇文章代码也没找到,我还挺想看看他们怎么做的。话说很久没更新了,之后会恢复更新,最近动力满满。 阅读全文
posted @ 2021-05-11 22:48 Neo_DH 阅读(172) 评论(0) 推荐(0) 编辑