08 2022 档案

摘要:None的作用主要是在使用None的位置新增一个维度。 a = np.arange(25).reshape(5,5) print(a) ''' [[ 0 1 2 3 4] [ 5 6 7 8 9] [10 11 12 13 14] [15 16 17 18 19] [20 21 22 23 24]] 阅读全文
posted @ 2022-08-31 20:46 SXQ-BLOG 阅读(308) 评论(0) 推荐(0) 编辑
摘要:torch.stack():http://www.45fan.com/article.php?aid=1D8JGDik5G49DE1X torch.stack()个人理解:属于先变形再cat的操作,所以在哪个维度上stack,要先把原数据变成相应维度上的值。 例如:x = [1, 2], y = [ 阅读全文
posted @ 2022-08-31 17:47 SXQ-BLOG 阅读(129) 评论(0) 推荐(0) 编辑
摘要:教程链接:https://blog.51cto.com/u_15521344/5056937 注意: 一个SummaryWriter只会在文件夹中生成一个events文件(.add_scalars实际上是多个SummaryWriter) 一个SummaryWriter可以给不同的tag画图,但是画出 阅读全文
posted @ 2022-08-30 21:22 SXQ-BLOG 阅读(295) 评论(0) 推荐(0) 编辑
摘要:1:https://blog.csdn.net/weixin_39504171/article/details/106356977 2: https://pytorch.org/docs/stable/generated/torch.meshgrid.html 阅读全文
posted @ 2022-08-28 12:41 SXQ-BLOG 阅读(25) 评论(0) 推荐(0) 编辑
摘要:一.结论 Batch Norm一般用于CV领域,而Layer Norm一般用于NLP领域 Batch Norm需要计算全局平均,而Layer Norm不需要计算全局平均 二.Batch Norm Batch Norm原理: BatchNorm把一个batch中同一通道的所有特征(如上图红色区域)视为 阅读全文
posted @ 2022-08-21 19:06 SXQ-BLOG 阅读(3275) 评论(0) 推荐(0) 编辑
摘要:https://zhuanlan.zhihu.com/p/474153365 torch.repeat 使张量沿着某个维度进行复制, 并且不仅可以复制张量,也可以拓展张量的维度: import torch x = torch.randn(2, 4) # 1. 沿着某个维度复制 x.repeat(1, 阅读全文
posted @ 2022-08-18 18:18 SXQ-BLOG 阅读(714) 评论(0) 推荐(0) 编辑
摘要:链接:https://blog.csdn.net/yzlh2009/article/details/114118470 情况一,索引数组为整数值 情况二,索引数组为bool值 阅读全文
posted @ 2022-08-18 15:34 SXQ-BLOG 阅读(150) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示