08 2018 档案
摘要:log_softmax log(softmax(X)) function:torch.nn.functional.log_softmax(x, dim=None) nn:torch.nn.LogSoftmax(dim=None) (对于神经网络nn,上式是定义,在feed的时候读入的参数和nn.fu
阅读全文
摘要:one-hot encoding和常规label的转化 常规label指0,1,2,3,4,5,......(一个数代表一类) 增减layer: 参考 https://www.cnblogs.com/marsggbo/p/8781774.html
阅读全文
摘要:scipy.sparse.coo_matrix(arg1, shape=None, dtype=None, copy=False) 主要用于用坐标的方法来构造矩阵,并且由于在sparse下,用的是稀疏矩阵来存储,节省空间 主要用法是coo_matrix((data, (row, col)), sha
阅读全文
摘要:batch/iteration/epoch的区别: 深度学习中的batch(batch size,full batch,mini batch, online learning)、iterations与epoch GCN相关: 深度学习新星 | 图卷积神经网络(GCN)有多强大? GRAPH CONV
阅读全文
摘要:Python中的有序序列都支持切片(slice),例如list,string,array。 格式:【start:end:step】 start:起始索引,从0开始,-1表示结束 end:结束索引 step:步长,end-start,步长为正时,从左向右取值。步长为负时,反向取值 注意切片的结果不包含
阅读全文
摘要:python自带的argparse包,常用于解析命令行的参数 使用方法example: import argparse parser = argparse.ArgumentParser() #将argparse包中的ArgumentParser类实例化 #向parser中添加argument,其具体
阅读全文
摘要:super(subclass_name, self).__init__() 用subclass_name父类的初始化__init__()来进行初始化 例如:
阅读全文
摘要:创建tensor x = torch.empty(*sizes) #创建一个未初始化的tensor(后面用torch.nn.init中的一些函数进行初始化) x = torch.rand(5, 3) #返回一个范围为[0,1)、size为5*3的矩阵 x = torch.zeros(5, 3, dt
阅读全文
摘要:1. 为变量名写注释 2. 记下新的常用函数到博客中
阅读全文
摘要:map(function, iterable, ...) 功能:map() 会根据提供的函数对指定序列做映射。 第一个参数 function 以参数序列中的每一个元素调用 function 函数,返回包含每次 function 函数返回值的新列表。 注意: Python 2.x 返回列表。 Pyth
阅读全文
摘要:random.seed(40) #设定随机种子为40,调用随机函数时养成习惯,设定随机种子!! random.randint(1, 10) #产生一个[1, 10]的随机整数(包含1和10) random.random() #产生一个[0.0, 1.0)之间的随机浮点数 random.choice(
阅读全文
摘要:str.split(s="", num=string.count(s)) s -- 分隔符,默认为所有的空字符,包括空格、换行(\n)、制表符(\t)等。 num -- 分割次数。 输出的是一个list。 str.strip([chars]) Python strip() 方法用于移除字符串头尾指定
阅读全文
摘要:conda info --envs 查看所有环境信息 nvidia-smi 查看NVIDIA 显卡 nvcc -V 查看CUDA版本 CUDA目录:一般安装在usr/local/cuda cat /usr/local/cuda/include/cudnn.h | grep CUDNN_MAJOR -
阅读全文