摘要: X的维度: torch.Size([64, 10, 32]) batchsz=64,seq_len=10,dim=32。 其实很好理解啊,X的维度是[64, 10, 32];所以valid_lens要mask它啊,所以,肯定是(64,10),现在 裂变成4个head,所以就是(256,10)。 pa 阅读全文
posted @ 2021-11-15 23:33 zae 阅读(989) 评论(2) 推荐(0) 编辑
摘要: 【前言】关于python中所有参数的知识:python的位置参数、默认参数、关键字参数、可变参数区别。本文只讲其中的两种可变参数。 【注意】 所有python函数的返回值若有大于一个,则该返回值就是一个tuple: return (batch_pred,batch_true,correct_num, 阅读全文
posted @ 2021-11-15 16:58 zae 阅读(525) 评论(0) 推荐(0) 编辑
摘要: Embedding是什么? 其为一个简单的存储固定大小的词典的嵌入向量的查找表,意思就是说,给一个编号,嵌入层就能返回这个编号对应的嵌入向量,嵌入向量反映了各个编号对应的符号的语义信息(蕴含了所有符号的语义关系)。 输入为一个编号列表,输出为对应的符号嵌入向量列表。 pytorch中的使用 #建立词 阅读全文
posted @ 2021-11-15 11:41 zae 阅读(1905) 评论(0) 推荐(1) 编辑