上一页 1 2 3 4 5 6 ··· 16 下一页
摘要: 偶然间看到论文里画了这个画,查了一下,仅用作学习使用。 参考如下:https://zhuanlan.zhihu.com/p/405462739 阅读全文
posted @ 2022-08-19 14:32 vv_869 阅读(320) 评论(0) 推荐(0) 编辑
摘要: 1. 2张图片并排 \begin{figure}[htbp] \centering \subfigure[]{ \includegraphics[width=5.5cm]{figure/Fig3-1.png} \label{Fig3-1} } \quad \subfigure[]{ \include 阅读全文
posted @ 2022-07-25 12:57 vv_869 阅读(14946) 评论(0) 推荐(0) 编辑
摘要: 1. 使用\left 和 \right 会出现括号大小不一致的问题,解决如下: 需要自定义括号大小,自带的大小控制符有 \big,\Big,\bigg,\Bigg 2. LaTeX中绝对值符号怎么输入: \lvert 和 \rvert \lvert C \rvert >|C| 阅读全文
posted @ 2022-06-08 21:03 vv_869 阅读(2800) 评论(0) 推荐(0) 编辑
摘要: pytorch的normal,从来没有用过,稍微整理下,导包: from torch.distributions import Normal normal.sample() sample()就是直接在定义的正太分布上采样 normal.rsample() rsample()不是在定义的正太分布上采样 阅读全文
posted @ 2022-04-11 22:00 vv_869 阅读(386) 评论(0) 推荐(0) 编辑
摘要: None作为tensor的索引作用是增加维度 ac.shape torch.Size([16]) p = ac[None,None,None,None,:] p.shape torch.Size([1, 1, 1, 1, 16])) 阅读全文
posted @ 2022-04-04 20:34 vv_869 阅读(512) 评论(0) 推荐(0) 编辑
摘要: repeat可以完成指定维度上的复制 import torch a = torch.randn(3, 2) a tensor([[ 1.4169, 0.2761], [ 1.2145, -2.0269], [ 1.1322, -0.7117]]) b = a.repeat(1,2) b,b.size 阅读全文
posted @ 2022-04-04 18:53 vv_869 阅读(440) 评论(0) 推荐(0) 编辑
摘要: 如果想要在1-100,以20为步长的数据段内生成随机数,比如1-20,21-40,41-60,61-80,81-100这5个长度内各随机取一个数,即该如何做? 可行的方法如下,利用randint和arange: 阅读全文
posted @ 2022-04-02 21:45 vv_869 阅读(81) 评论(0) 推荐(0) 编辑
摘要: 最近越来越觉得基础很重要,看的越多盲区越多,scheduled sampling 是什么??第一次见。。。 各种博客开始看,解释的比较清楚的如下: Scheduled Sampling简单理解_cwh_rs_giser的博客-CSDN博客 阅读全文
posted @ 2022-04-02 19:59 vv_869 阅读(70) 评论(0) 推荐(0) 编辑
摘要: *作用在实参上,是将输入迭代器拆成一个个元素。 从nn.Sequential的定义来看,遇到list,必须用*号进行转化,否则会报错 TypeError: list is not a Module subclass。 参考:nn.Sequential的参数的注意事项_apodxxx的博客-CSDN博 阅读全文
posted @ 2022-04-01 17:23 vv_869 阅读(341) 评论(0) 推荐(0) 编辑
摘要: 1. tensorboard,学习链接如下,简单清晰 pytorch_数据展示_SummaryWriter的两个函数_Marshal~的博客-CSDN博客_summarywriter函数 【学习笔记】TensorboardX学习笔记_Hung武的博客-CSDN博客_tensorboard和tenso 阅读全文
posted @ 2022-04-01 15:17 vv_869 阅读(31) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 16 下一页