摘要: ## 一、装饰器 参考:https://zhuanlan.zhihu.com/p/87353829 https://blog.csdn.net/zhh763984017/article/details/120072425 将函数作为对象 ###闭包概念 ``` def outer(x): def i 阅读全文
posted @ 2023-07-20 11:52 mine_possibility 阅读(49) 评论(0) 推荐(1) 编辑
摘要: 一、PruneFL出发点(解决的问题) 1、减少通信量以及计算开销, 2、在保持精度的同时最小化联邦训练的总体时间 在合理的时间和精力内训练模型 二、简介 pruneFL作为联邦学习与模型剪枝相结合的一种新的范式,,主要有以下两个部分: a)distributed prunning 分为两个stag 阅读全文
posted @ 2022-06-23 15:52 mine_possibility 阅读(777) 评论(0) 推荐(1) 编辑
摘要: 一、MAML 1、示意图: \(\theta_i^*\) 表示不同任务的适应参数,$\nabla L_i$表示不同任务上的梯度方向 2、算法: 在每个不同的任务上,使用自己任务的support set对全局的参数$\theta$ 进行梯度更新(类似微调),并保存各个任务在query set 上的lo 阅读全文
posted @ 2022-04-12 18:41 mine_possibility 阅读(208) 评论(0) 推荐(1) 编辑
摘要: ###一、random.choice()方法,从列表中选择一个元素进行输出 import random name = ['lili', 'wangwei', 'chenyu', 'luoyan'] node_id = random.choice(name) print(node_id) 结果: ## 阅读全文
posted @ 2022-03-22 16:13 mine_possibility 阅读(268) 评论(0) 推荐(0) 编辑
摘要: #HyperNetwork 论文地址 1、灵感来源于nature中的基因型(超网络)以及表型(主网络) 2、主要为了解决CNN,RNN中权重不共享以及RNN中全共享的问题,旨在创造一个relaxed weight-sharing across layers的模型,在不特别影响精度的情况下,减少了模型 阅读全文
posted @ 2022-03-21 17:03 mine_possibility 阅读(550) 评论(0) 推荐(1) 编辑
摘要: pFedHN 文章的主要贡献 (1)提出了新的基于Hypernetworks的个性化联邦学习 (2)模型的泛化能力强,对于新用户也能有良好的表现 (3)对于拥有不同的计算资源的客户端能有一个适配的不同大小的模型 idea 使用embedding层,根据id生成一个 vector Vi,成为超网络的传 阅读全文
posted @ 2022-03-12 14:39 mine_possibility 阅读(486) 评论(0) 推荐(1) 编辑