上一页 1 2 3 4 5 6 7 8 9 10 ··· 13 下一页
摘要: torch.stack():http://www.45fan.com/article.php?aid=1D8JGDik5G49DE1X torch.stack()个人理解:属于先变形再cat的操作,所以在哪个维度上stack,要先把原数据变成相应维度上的值。 例如:x = [1, 2], y = [ 阅读全文
posted @ 2022-08-31 17:47 SXQ-BLOG 阅读(122) 评论(0) 推荐(0) 编辑
摘要: 教程链接:https://blog.51cto.com/u_15521344/5056937 注意: 一个SummaryWriter只会在文件夹中生成一个events文件(.add_scalars实际上是多个SummaryWriter) 一个SummaryWriter可以给不同的tag画图,但是画出 阅读全文
posted @ 2022-08-30 21:22 SXQ-BLOG 阅读(288) 评论(0) 推荐(0) 编辑
摘要: 1:https://blog.csdn.net/weixin_39504171/article/details/106356977 2: https://pytorch.org/docs/stable/generated/torch.meshgrid.html 阅读全文
posted @ 2022-08-28 12:41 SXQ-BLOG 阅读(23) 评论(0) 推荐(0) 编辑
摘要: 一.结论 Batch Norm一般用于CV领域,而Layer Norm一般用于NLP领域 Batch Norm需要计算全局平均,而Layer Norm不需要计算全局平均 二.Batch Norm Batch Norm原理: BatchNorm把一个batch中同一通道的所有特征(如上图红色区域)视为 阅读全文
posted @ 2022-08-21 19:06 SXQ-BLOG 阅读(3060) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/474153365 torch.repeat 使张量沿着某个维度进行复制, 并且不仅可以复制张量,也可以拓展张量的维度: import torch x = torch.randn(2, 4) # 1. 沿着某个维度复制 x.repeat(1, 阅读全文
posted @ 2022-08-18 18:18 SXQ-BLOG 阅读(529) 评论(0) 推荐(0) 编辑
摘要: 链接:https://blog.csdn.net/yzlh2009/article/details/114118470 情况一,索引数组为整数值 情况二,索引数组为bool值 阅读全文
posted @ 2022-08-18 15:34 SXQ-BLOG 阅读(149) 评论(0) 推荐(0) 编辑
摘要: 原文链接:https://blog.csdn.net/jackandsnow/article/details/103885422 阅读全文
posted @ 2022-07-29 17:41 SXQ-BLOG 阅读(24) 评论(0) 推荐(0) 编辑
摘要: 一:01背包问题模型 1 题目: 有一个箱子容量为 V,同时有 n 个物品,每个物品有一个体积(正整数)。 要求 n 个物品中,任取若干个装入箱内,使箱子的剩余空间为最小。 输入格式 第一行是一个整数 V,表示箱子容量。 第二行是一个整数 n,表示物品数。 接下来 n 行,每行一个正整数(不超过10 阅读全文
posted @ 2022-07-29 17:38 SXQ-BLOG 阅读(43) 评论(0) 推荐(0) 编辑
摘要: https://segmentfault.com/a/1190000022036618 阅读全文
posted @ 2021-02-17 13:15 SXQ-BLOG 阅读(18) 评论(0) 推荐(0) 编辑
摘要: 1 //作者:小黑AWM+MashPlant 2 //注:可以直接把BigInt和一样用cin cout都行,就是高精乘为了速度才用了FFT降低了精度,有需要可以自行更改。 3 #include <cstdio> 4 #include <iostream> 5 #include <cmath> 6 阅读全文
posted @ 2020-03-24 22:57 SXQ-BLOG 阅读(151) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 10 ··· 13 下一页