上一页 1 2 3 4 5 6 7 8 9 10 ··· 25 下一页
摘要: 回顾经典卷积的操作:采样(即构建邻域)+聚合(聚合邻居结点的信息)。将固定数量的邻域结点排序后,与相同数量的卷积核参数相乘求和。 对于图结构数据如何定义卷积操作? 1)构建邻域; 2)对邻域的点与卷积核参数内积; GNN,构建邻域的大小为p,p个固定数量的卷积核参数。GNN使用随机游走的方法,为每个 阅读全文
posted @ 2020-06-26 11:24 kkzhang 阅读(1571) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-06-21 19:45 kkzhang 阅读(567) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-06-21 19:30 kkzhang 阅读(626) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2020-06-21 19:19 kkzhang 阅读(385) 评论(0) 推荐(0) 编辑
摘要: 以下学习内容参考了:🔗1,🔗2, 0、首先回忆CNN,卷积神经网络的结构和特点 处理的数据特征:具有规则的空间结构(Euclidean domains),都可以采用一维或者二维的矩阵描述。(Convolutional neural network (CNN) gains great succes 阅读全文
posted @ 2020-06-20 14:45 kkzhang 阅读(4519) 评论(5) 推荐(2) 编辑
摘要: 阅读过程中的其他解释: Batch和miniBatch:(广义)离线和在线的不同 阅读全文
posted @ 2020-06-18 21:14 kkzhang 阅读(206) 评论(0) 推荐(0) 编辑
摘要: 卷积的基本结构: 卷积层,Pooling池化层和激活函数层等操作是将原始数据映射到隐层特征空间; 全连接层则起到将学到的特征表示映射到样本标记空间的作用,做出预测; 目标函数的作用则是用来衡量该预测值与真实样本标记之间的误差。再当下的卷积神经网络中交叉熵损失函数和L2损失函数分别是分类问题和回归问题 阅读全文
posted @ 2020-06-18 17:10 kkzhang 阅读(339) 评论(0) 推荐(0) 编辑
摘要: 0、对于正则罚项的理解 1、岭回归(L2 ridge regression ) 是一种专用于共线性数据分析的有偏估计回归方法,实质上是一种改良的最小二乘估计法,通过放弃最小二乘法的无偏性,以损失部分信息、降低精度为代价获得回归系数更为符合实际、更可靠的回归方法,对病态数据的拟合要强于最小二乘法。 关 阅读全文
posted @ 2020-06-17 17:19 kkzhang 阅读(243) 评论(0) 推荐(0) 编辑
摘要: 使用anaconda安装tensorflow (windows10环境)🔗 遇到的问题:CondaHTTPError: HTTP 000 CONNECTION FAILED for url <https://mirrors.tuna.tsinghua.edu.cn/anaconda/ 解决方案:在 阅读全文
posted @ 2020-06-16 22:06 kkzhang 阅读(6498) 评论(0) 推荐(1) 编辑
摘要: class Solution { public static List<List<Integer>> threeSum(int[] nums) { List<List<Integer>> ans = new ArrayList(); int len = nums.length; if(nums == 阅读全文
posted @ 2020-06-13 15:32 kkzhang 阅读(244) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 10 ··· 25 下一页