摘要:
摘自:如何简单的理解LSTM——其实没有那么复杂 LSTM的第一步是决定我们要从细胞状态中丢弃什么信息。 该决定由被称为“忘记门”的Sigmoid层实现。它查看ht-1(前一个输出)和xt(当前输入),并为记忆单元格状态Ct-1(上一个状态)中的每个数字输出0和1之间的数字。1代表完全保留,而0代表 阅读全文
摘要:
1 神经元 从本质上讲,神经元不过是输入的线性变换(例如,输入乘以一个数[weight,权重],再加上一个常数[偏置,bias]),然后再经过一个固定的非线性函数(称为激活函数)。 神经元:线性变换后再经过一个非线性函数 数学上,你可以将其写为o = f(wx + b),其中 x 为输入,w为权重或 阅读全文
摘要:
从这里学习《DL-with-PyTorch-Chinese》 4.2用PyTorch自动求导 考虑到上一篇手动为由线性和非线性函数组成的复杂函数的导数编写解析表达式并不是一件很有趣的事情,也不是一件很容易的事情。这里我们用通过一个名为autograd的PyTorch模块来解决。 利用autograd 阅读全文
摘要:
从这里学习《DL-with-PyTorch-Chinese》 4.1学习就是参数估计 本节内容中 学习(参数估计)这个过程要做的就是:给定输入数据和相应的期望输出(ground truth)以及权重的初始值,模型输入数据(前向传播),然后通过把结果输出与ground truth进行比较来评估误差。为 阅读全文
摘要:
这是一些深度学习基础相关概念来《自动手学习深度学习》(PyTorch版) 3.1 线性回归 3.4. softmax回归 softmax运算 交叉损失函数 3.8 多层感知机 1)隐藏层 2)激活函数 2.1 ReLU 2.2 sigmoid 2.3 tanh函数 3.11 模型选择、欠拟合和过拟合 阅读全文
摘要:
An Advanced Deep Generative Framework for Temporal Link Prediction in Dynamic Networks 摘要:时间链路预测的主要挑战是捕捉动态网络的时空模式和高度非线性。受图像生成成功的启发,我们将动态网络转换为静态图像序列,并将 阅读全文
摘要:
图神经网络七日打卡营 1、图与图学习 1)图的两个基本元素是点和边,是一种统一描述复杂事务的语言,常见的图有社交网络、推荐系统、化学分子结构。 2)图学习: Graph Learning。深度学习中的一个子领域,强调处理的数据对象为图;与一般深度学习的区别:能够方便地处理不规则数据(树、图),同时也 阅读全文
摘要:
第一次看到这样的用法,写几行看一下是怎么用的 #!/usr/bin/env python # coding: utf-8 # In[1]: import numpy as np # In[2]: outdegrees = np.array([1,2,0,3,0,4,0]) masks = (outd 阅读全文
摘要:
Dynamic Network Link Prediction by Learning Effective Subgraphs using CNN-LSTM 摘要:现有的方法大多涉及整个网络和目标环节,这导致高计算成本。本文旨在通过使用深度学习方法提出一个新的框架来解决这些问题。DLP-LES使用基 阅读全文
摘要:
An edge creation history retrieval based method to predict links in social networks 关键词:在线社交网络;数据挖掘;图挖掘;链接预测(Online social networks; Data mining; Grap 阅读全文