摘要: 背景:用户在云服务器存储数据; 问题:现有用户与云服务器交互方式多为一对一;用户支付费用后,得不到云服务器正确且完整的检索结果。 方案:CP-ABE对属性私钥指定树形访问结构 ,实现密文数据的细粒度访问控制->结合SM4分组算法对数据集生成密文 ->依据区块链的公平机制及智能合约 解决云服务器与用户 阅读全文
posted @ 2023-04-03 20:24 玄丘校尉 阅读(86) 评论(0) 推荐(0)
摘要: 本篇论文的贡献提供了在机器学习中公平地评估数据的一个公式,利用博弈论提出了数据的Shapley值来量化单个数据点对学习任务的贡献。Data Shapley唯一地满足公平估值的三个自然属性。此外,实证研究表明,数据Shapley还有几个额外的实用功能:1)它与通常的LOO分数相比,提供了更多的观察每个 阅读全文
posted @ 2023-03-02 20:33 玄丘校尉 阅读(834) 评论(0) 推荐(0)
摘要: 面对的问题:激励分配不均、攻击者欺骗 方法:提出FGFL模型。1)设计了时间衰减SLM算法度量工作者声誉;2)设计了基于梯度相似度的轻量级方法度量工作者贡献;3)提出了一种公平的激励机制FGFL,任务发布者根据声誉与贡献乘积确定worker报酬份额,并通过实践验证了方法有效性;4)通过基于区块链的联 阅读全文
posted @ 2023-02-27 08:22 玄丘校尉 阅读(257) 评论(0) 推荐(0)
摘要: 面对的问题: 参与者虚报成本导致激励分配不匹配 提出了:质量评估方法、基于信誉度的激励分配方法、计算了演化博弈模型达到均衡的解。 本文模型: 质量评估:不是参与者绝对主导,由参与者与组织者共同决定质量评估结果,参与者可主导的指标:准确度、精确度、召回率。做归一化处理;组织者根据模型使用者需求给指标设 阅读全文
posted @ 2023-02-20 16:28 玄丘校尉 阅读(178) 评论(0) 推荐(0)
摘要: 问题:现有联邦学习研究集中在提高模型精度和完成时间 准确率与效率,即又快又好。然而实际中客户不愿意投入到无回报的FL中。 1前言:机器学习的不足->引出联邦学习->联邦学习面临的挑战,由于这些挑战,引出文章想要强调的事:客户愿意参加FL的前提是能够获得足够的回报。->引出激励机制 引入激励机制的原因 阅读全文
posted @ 2023-02-14 12:05 玄丘校尉 阅读(364) 评论(0) 推荐(0)
摘要: 这篇论文提出CFFL框架,根据参与者的声誉收敛到不同模型,实现联邦学习公平协作 参考笔记:https://zhuanlan.zhihu.com/p/600343559 方法:衡量声誉标准:参与方上传的梯度质量 阅读全文
posted @ 2023-02-13 16:17 玄丘校尉 阅读(62) 评论(0) 推荐(0)
摘要: 参考链接:https://www.zhihu.com/people/hidisan/posts 本文提出q-FFL优化算法,在模型准确率不变的情况下,引入q参数化的权重,使损失大的参与者权重更高,降低准确率分布方差,使模型性能更均匀分布,实现联邦学习公平性。 联邦学习的两种公平性:一种是均衡公平性, 阅读全文
posted @ 2023-02-13 12:53 玄丘校尉 阅读(251) 评论(0) 推荐(0)
摘要: 参考笔记:https://zhuanlan.zhihu.com/p/600585351 前人提到过用Shapley值计算联邦学习数据提供者的贡献,但是计算成本太大复杂度达到了0(N!)。本文定义了一个基于Shapley的度量指标 贡献指数CI ,提出了两种基于梯度的方法,通过训练过程的中间结果,近似 阅读全文
posted @ 2023-02-11 21:55 玄丘校尉 阅读(116) 评论(0) 推荐(0)
摘要: 这篇论文提出了两种贡献测量的方法,水平FL的删除方法和垂直FL的Shapley值分组特征法。 水平FL:特征相同样本不同 删除方法:每次删除某一个参与者重新训练,贡献 = 原模型-新模型 ,该贡献就是此参与者贡献。 垂直FL:特征不同样本相同 shapley值计算特征的重要性,重要性就是它的贡献 笔 阅读全文
posted @ 2023-02-10 20:55 玄丘校尉 阅读(61) 评论(0) 推荐(0)
摘要: 精翻:https://blog.csdn.net/weixin_43978453/article/details/104947600 挑战:客户端自身存在计算与通信成本,不给足够的好处不愿意参与训练。 方法:基于合约理论设计了一种激励机制,可有效激励有着高质量数据的客户端加入联邦学习。 思路:贡献的 阅读全文
posted @ 2023-02-10 11:38 玄丘校尉 阅读(53) 评论(0) 推荐(0)