摘要:
1.针对一维 append: 列表添加一个元素(直接嵌套一个list) l1 = [2, 3, 4] l2 = [7, 8, 9] l1.append(l2) l1 [2, 3, 4, [7, 8, 9]] extend:两个列表合并: l1 = [2, 3, 4] l2 = [7, 8, 9] l 阅读全文
摘要:
转自:https://blog.csdn.net/qq_34218078/article/details/109591000 1.先D后G 1.1 不detach,但需要retain_graph=True 1.2 detach 2.先G后D 有些奇怪的方法,但可用。 因为 generator 的更新 阅读全文
摘要:
转自:https://blog.csdn.net/waitingwinter/article/details/105774720 1.对输入变量求导 要用到输出值对输入变量(不是Weights和Biases)求导,可以用pytorch 中的autograd.grad() 函数实现。 autograd 阅读全文
摘要:
1.安装cuda https://developer.nvidia.cn/cuda-downloads,可查看安装版本: 下载 安装: wget https://developer.download.nvidia.com/compute/cuda/11.5.1/local_installers/cu 阅读全文
摘要:
转自:https://www.cnblogs.com/ttop/p/4085414.html 1.umask掩码 umask是chmod配套的,总共为4位(gid/uid, 属主,组权,其它用户的权限),不过通常用到的是后3个,例如你用chmod 755 file(此时这文件的权限是属主读(4)+写 阅读全文
摘要:
转自:https://blog.csdn.net/sinat_16643223/article/details/106077394 https://xie.infoq.cn/article/31fe8d982e52125e2cd6c08fb 1.路线 一. 基础阶段 c/c++编程语言 linux基 阅读全文
摘要:
转自:https://discuss.pytorch.org/t/why-do-we-need-to-do-loss-cuda-when-we-we-have-already-done-model-cuda/91023/5 https://discuss.pytorch.org/t/move-the 阅读全文
摘要:
转自:https://www.jb51.net/article/213149.htm 1.多个loss x = torch.tensor(2.0, requires_grad=True) y = x**2 z = x # 反向传播 y.backward() x.grad tensor(4.) z.b 阅读全文
摘要:
1.训练报错 使用BCE损失时,出现的问题包括: 报错 参数batch_size | epoch | hidden_size | lr_D | lr_DZ | lr_Eref | lr_model | z_dim 'ViewBackward' returned nan values 8 | 50 | 阅读全文
摘要:
转自:https://towardsdatascience.com/avoid-data-leakage-split-your-data-before-processing-a7f172632b00 https://towardsdatascience.com/data-splitting-for- 阅读全文