摘要: log_softmax log(softmax(X)) function:torch.nn.functional.log_softmax(x, dim=None) nn:torch.nn.LogSoftmax(dim=None) (对于神经网络nn,上式是定义,在feed的时候读入的参数和nn.fu 阅读全文
posted @ 2018-08-24 23:29 sbj123456789 阅读(4441) 评论(0) 推荐(0) 编辑
摘要: one-hot encoding和常规label的转化 常规label指0,1,2,3,4,5,......(一个数代表一类) 增减layer: 参考 https://www.cnblogs.com/marsggbo/p/8781774.html 阅读全文
posted @ 2018-08-24 21:57 sbj123456789 阅读(1245) 评论(0) 推荐(0) 编辑
摘要: scipy.sparse.coo_matrix(arg1, shape=None, dtype=None, copy=False) 主要用于用坐标的方法来构造矩阵,并且由于在sparse下,用的是稀疏矩阵来存储,节省空间 主要用法是coo_matrix((data, (row, col)), sha 阅读全文
posted @ 2018-08-24 16:30 sbj123456789 阅读(396) 评论(0) 推荐(0) 编辑
摘要: batch/iteration/epoch的区别: 深度学习中的batch(batch size,full batch,mini batch, online learning)、iterations与epoch GCN相关: 深度学习新星 | 图卷积神经网络(GCN)有多强大? GRAPH CONV 阅读全文
posted @ 2018-08-24 14:52 sbj123456789 阅读(140) 评论(0) 推荐(0) 编辑