摘要: M1,M2,M3是形状相同(任意维度和形状都可以,记为shape)的index matrix。 M1的元素是0,1;M2取值于[0:8],M3取值于[0:768] 在data的形状为torch.Size([2, 8, 768])的数据中,取出data[M1,M2,M3]。其形状就是shape,其实就 阅读全文
posted @ 2021-11-16 12:49 zae 阅读(310) 评论(0) 推荐(0) 编辑
摘要: X的维度: torch.Size([64, 10, 32]) batchsz=64,seq_len=10,dim=32。 其实很好理解啊,X的维度是[64, 10, 32];所以valid_lens要mask它啊,所以,肯定是(64,10),现在 裂变成4个head,所以就是(256,10)。 pa 阅读全文
posted @ 2021-11-15 23:33 zae 阅读(989) 评论(2) 推荐(0) 编辑
摘要: 【前言】关于python中所有参数的知识:python的位置参数、默认参数、关键字参数、可变参数区别。本文只讲其中的两种可变参数。 【注意】 所有python函数的返回值若有大于一个,则该返回值就是一个tuple: return (batch_pred,batch_true,correct_num, 阅读全文
posted @ 2021-11-15 16:58 zae 阅读(525) 评论(0) 推荐(0) 编辑
摘要: Embedding是什么? 其为一个简单的存储固定大小的词典的嵌入向量的查找表,意思就是说,给一个编号,嵌入层就能返回这个编号对应的嵌入向量,嵌入向量反映了各个编号对应的符号的语义信息(蕴含了所有符号的语义关系)。 输入为一个编号列表,输出为对应的符号嵌入向量列表。 pytorch中的使用 #建立词 阅读全文
posted @ 2021-11-15 11:41 zae 阅读(1905) 评论(0) 推荐(1) 编辑
摘要: 只改变要挑选的维度,其他维度不变 A=torch.tensor([[[3,4]]]) dec_X = A.argmax(dim=2)# 只在dim=2上挑选最大值,得到索引为scalar dec_X #相当于把最内侧的[3,4]的维度去掉了,得到结果1。其他维度不变 tensor([[1]]) 阅读全文
posted @ 2021-11-14 17:36 zae 阅读(139) 评论(0) 推荐(0) 编辑
摘要: 各种normalization讲解 在各种网络中的应用 layer norm 参数 torch.nn.LayerNorm( normalized_shape: Union[int, List[int], torch.Size], eps: float = 1e-05, elementwise_aff 阅读全文
posted @ 2021-11-13 13:38 zae 阅读(87) 评论(0) 推荐(0) 编辑
摘要: y = torch.rand(5,3) y=torch.randn(5,3) 一个均匀分布,一个是标准正态分布。 torch.randn(2, 3) torch.rand(2, 3) 均匀分布 *torch.rand(sizes, out=None) → Tensor 返回一个张量,包含了从区间[0 阅读全文
posted @ 2021-11-08 11:07 zae 阅读(185) 评论(0) 推荐(0) 编辑
摘要: 查询cuda版本 cat /usr/local/cuda/version.txt 根据官网提示,用conda安装: conda create -n bartner python=3.7.4 conda activate bartner conda install pytorch==1.7.1 tor 阅读全文
posted @ 2021-11-05 16:03 zae 阅读(499) 评论(0) 推荐(0) 编辑
摘要: Fcos: Fully convolutional one-stage object detection 锚框: gluon zhihu 阅读全文
posted @ 2021-08-26 10:12 zae 阅读(30) 评论(0) 推荐(0) 编辑
摘要: list(vocab.token_to_idx.items()) 先用items函数转换为键值对dict_items([('<unk>', 0),xxx对象,再用list转为list。 阅读全文
posted @ 2021-08-23 17:10 zae 阅读(577) 评论(0) 推荐(0) 编辑