摘要: # TITLE ## Decentralized Federated Learning: Balancing Communication and Computing Costs 这篇论文感觉没什么创新点(只是在本地节点完成多次本地更新后,再共识更新),写得不怎么好 ## Decentralised 阅读全文
posted @ 2023-07-07 15:51 小夏虫 阅读(7) 评论(0) 推荐(0) 编辑
摘要: ![img](https://img2023.cnblogs.com/blog/2145900/202302/2145900-20230215144841680-1467390234.png) 阅读全文
posted @ 2023-02-15 14:49 小夏虫 阅读(9) 评论(0) 推荐(0) 编辑
摘要: 向 dataframe 中添加行建议使用 loc First Step:事先准备一个与原数据列的个数相同的list或者是Series,比如[1, 2, 3, 4] # 先定义一个 DataFream import pandas as pd df = pd.DataFrame([[1, 2, 3, 4 阅读全文
posted @ 2022-12-07 16:53 小夏虫 阅读(2078) 评论(3) 推荐(3) 编辑
摘要: A single layer of GNN 1. Idea of a GNN Layer: Compress a set of vectors into a single vector Two step process: 1.Message 2.aggregation (1) message com 阅读全文
posted @ 2022-12-02 15:50 小夏虫 阅读(13) 评论(0) 推荐(0) 编辑
摘要: 看了 Decentralized Federated Learning for Electronic Health Records 这篇论文,我看有港科大就看了,主要是应用,没有啥数学推理。 应用场景: 医疗数据联邦学习,医疗数据高度敏感,不宜泄露,美国的 United States Health 阅读全文
posted @ 2022-11-20 21:22 小夏虫 阅读(37) 评论(0) 推荐(0) 编辑
摘要: 10.1 Heterogeneous & Knowledge Graph Embedding Recap: A Single GNN Layer 回顾 一个单层 GNN 层应该包括: (1) Message $\mathbf{m}{u}^{(l)}=\operatorname{MSG}^{(l)}\ 阅读全文
posted @ 2022-11-05 20:23 小夏虫 阅读(28) 评论(0) 推荐(0) 编辑
摘要: sklearn 的全称是 scikit-learn scikit-learn, 又写作 sklearn, 是一个开源的基于python语言的机器学习工具包. 它通过 NumPy, SciPy 和 Matplotlib 等 python 数值计算的库实现高效的算法应用,并且涵盖了几乎所有主流机器学习算 阅读全文
posted @ 2022-10-26 19:30 小夏虫 阅读(307) 评论(0) 推荐(0) 编辑
摘要: deepsnap 官网地址:https://snap.stanford.edu/deepsnap/ 什么是 deep snap? DeepSNAP is a Python library to assist efficient deep learning on graphs. DeepSNAP fe 阅读全文
posted @ 2022-10-20 22:36 小夏虫 阅读(132) 评论(2) 推荐(0) 编辑
摘要: CS224W问题汇总 1. Eigenvector centrality(节点特征) 这里说lambda是某个正数,不太理解红框中的内容,不太明白lambda的作用是啥 $C_{max}$是什么意思? 2. Graphlet Kernel(图特征) 视频网址链接 问题:为什么这里 $h_g$ 要用$ 阅读全文
posted @ 2022-10-20 20:04 小夏虫 阅读(10) 评论(0) 推荐(0) 编辑
摘要: CS224w !! A single layer of GNN 这个L2-norm是—— 这里怎么理解它是 stroage efficient 的? 8.1 这个地址可以精准空降!!! 这个社区聚类感觉挺有意思的 这里Jure说 Order Embedding Space 好,但是好在哪里呢?他说的 阅读全文
posted @ 2022-10-19 23:33 小夏虫 阅读(29) 评论(1) 推荐(1) 编辑