摘要: #WIndows 重装 升级Cuda nvidia-smi 查询算力版本,所以能装的cuda版本不超过12.2. cuda 12.1 的pytorch兼容性更好,因此选cuda12.1 CUDA的下载地址:https://developer.nvidia.com/cuda-toolkit-archi 阅读全文
posted @ 2020-11-15 14:57 yangyuwen_yang 阅读(130) 评论(0) 推荐(0) 编辑
摘要: backward函数 官方定义: torch.autograd.backward(tensors, grad_tensors=None, retain_graph=None, create_graph=False, grad_variables=None) Computes the sum of g 阅读全文
posted @ 2019-03-18 16:09 yangyuwen_yang 阅读(10194) 评论(0) 推荐(0) 编辑
摘要: import argparseparse = argparse.ArgumentParser()parse.add_argument("a", help="params means") # 不可缺省的输入,多个“”则按顺序读取,无需指定aparse.add_argument("-C", "--gc" 阅读全文
posted @ 2021-12-29 11:53 yangyuwen_yang 阅读(175) 评论(0) 推荐(0) 编辑
摘要: tf.gradients 官方定义: Constructs symbolic derivatives of sum of ys w.r.t. x in xs. ys and xs are each a Tensor or a list of tensors. grad_ys is a list of 阅读全文
posted @ 2019-03-21 12:47 yangyuwen_yang 阅读(12642) 评论(0) 推荐(1) 编辑
摘要: python 中好用的函数,random.sample等,持续更新 random.sample random.sample的函数原型为:random.sample(sequence, k),从指定序列中随机获取指定长度的片断。sample函数不会修改原有序列 seaborn tsplot 学习参考链 阅读全文
posted @ 2019-03-19 15:24 yangyuwen_yang 阅读(1182) 评论(0) 推荐(1) 编辑
摘要: retain_graph参数的作用 官方定义: retain_graph (bool, optional) – If False, the graph used to compute the grad will be freed. Note that in nearly all cases sett 阅读全文
posted @ 2019-03-18 22:22 yangyuwen_yang 阅读(8720) 评论(0) 推荐(1) 编辑