摘要:
log_softmax log(softmax(X)) function:torch.nn.functional.log_softmax(x, dim=None) nn:torch.nn.LogSoftmax(dim=None) (对于神经网络nn,上式是定义,在feed的时候读入的参数和nn.fu 阅读全文
摘要:
one-hot encoding和常规label的转化 常规label指0,1,2,3,4,5,......(一个数代表一类) 增减layer: 参考 https://www.cnblogs.com/marsggbo/p/8781774.html 阅读全文
摘要:
scipy.sparse.coo_matrix(arg1, shape=None, dtype=None, copy=False) 主要用于用坐标的方法来构造矩阵,并且由于在sparse下,用的是稀疏矩阵来存储,节省空间 主要用法是coo_matrix((data, (row, col)), sha 阅读全文
摘要:
batch/iteration/epoch的区别: 深度学习中的batch(batch size,full batch,mini batch, online learning)、iterations与epoch GCN相关: 深度学习新星 | 图卷积神经网络(GCN)有多强大? GRAPH CONV 阅读全文