摘要:
#WIndows 重装 升级Cuda nvidia-smi 查询算力版本,所以能装的cuda版本不超过12.2. cuda 12.1 的pytorch兼容性更好,因此选cuda12.1 CUDA的下载地址:https://developer.nvidia.com/cuda-toolkit-archi 阅读全文
摘要:
backward函数 官方定义: torch.autograd.backward(tensors, grad_tensors=None, retain_graph=None, create_graph=False, grad_variables=None) Computes the sum of g 阅读全文
摘要:
import argparseparse = argparse.ArgumentParser()parse.add_argument("a", help="params means") # 不可缺省的输入,多个“”则按顺序读取,无需指定aparse.add_argument("-C", "--gc" 阅读全文
摘要:
tf.gradients 官方定义: Constructs symbolic derivatives of sum of ys w.r.t. x in xs. ys and xs are each a Tensor or a list of tensors. grad_ys is a list of 阅读全文
摘要:
python 中好用的函数,random.sample等,持续更新 random.sample random.sample的函数原型为:random.sample(sequence, k),从指定序列中随机获取指定长度的片断。sample函数不会修改原有序列 seaborn tsplot 学习参考链 阅读全文
摘要:
retain_graph参数的作用 官方定义: retain_graph (bool, optional) – If False, the graph used to compute the grad will be freed. Note that in nearly all cases sett 阅读全文