05 2019 档案
摘要:稀疏3d卷积网络 输入 稀疏卷积的输入包括两部分,一个是坐标,另一个是特征。 self.scn_input = scn.InputLayer(3, sparse_shape.tolist()) [h,w,l] coors = coors.int()[:, [1, 2, 3, 0]] [h, w, l
阅读全文
摘要:稀疏2d卷积 输入 1.sparse_shape = torch.LongTensor([87, 87]) 2.input = scn.InputBatch(2, spase_shape) dimension sparse shape 3.输入稀疏张量 另外一种方法: model搭建 将稀疏转成稠密
阅读全文
摘要:网络保存与加载 1.保存 2.加载网络 3.批训练 DataLoader是torch给你用来包装你的数据的工具。所以要将自己的(numpy array或其他)数据形式转换成Tensor, 然后再放进这个包装器中。使用DataLoader的好处就是帮你有效地迭代数据。 当数据最后不足batch时,就会
阅读全文
摘要:拟合(回归) 1.建立数据集 拟合一个一元二次函数:y=a x^2+b 2.建立神经网络 建立一个神经网络我们可以直接运用torch中的体系。先定义所有层属性(__ init __()),然后再一层层搭建(forward(x))层与层的关系链接。 3.训练网络 4.可视化 5.快速搭建网络 我们发现
阅读全文
摘要:pytorch使用说明 1.torch和numpy的转换 2.torch中的数学运算 3. 什么是Variable 在Torch中的Variable就是一个存放会变化的值的地理位置。里面的值会不停的变化。其中的值就是torch的Tensor.如果用Variable进行计算,那返回的也是一个同类型的V
阅读全文
摘要:pytorch中文文档学习0 1.自动求导 每个变量都有两个标志:requires_grad和volatile. requires_grad: 只有所有输入都不需要梯度时,输出才不需要;如果有一个输入有梯度,它的输出也有梯度。 volatile 纯粹的inference模式下推荐使用volatile
阅读全文

浙公网安备 33010602011771号