摘要: ## 问题来源 【d2l】9.7 序列到序列学习 ![image](https://img2023.cnblogs.com/blog/3240132/202307/3240132-20230728143550788-834842676.png) ![image](https://img2023.cn 阅读全文
posted @ 2023-07-28 14:40 zz子木zz 阅读(9) 评论(0) 推荐(0) 编辑
摘要: **Xavier是一种很好的参数初始化方法** ## 参考1:https://pytorch.org/docs/stable/nn.init.html ![](https://img2023.cnblogs.com/blog/3240132/202307/3240132-20230728113341 阅读全文
posted @ 2023-07-28 11:35 zz子木zz 阅读(58) 评论(0) 推荐(0) 编辑
摘要: ** nn.CrossEntropyloss自带softmax功能,d2l.cross_entrop不带softmax功能** ## Note reduction = 'none' nn.CrossEntropyloss的常见用法: ``` loss = nn.CrossEntropyloss(re 阅读全文
posted @ 2023-07-28 11:16 zz子木zz 阅读(26) 评论(0) 推荐(0) 编辑
摘要: ## 问题描述 ![image](https://img2023.cnblogs.com/blog/3240132/202307/3240132-20230727222203596-1337268636.png) **神の代码秀我一脸,来搞懂一下** ## 问题解决 ### 1. torch.ten 阅读全文
posted @ 2023-07-27 23:02 zz子木zz 阅读(9) 评论(0) 推荐(0) 编辑
摘要: **只对输入的张量的最后一个维度做全连接** 参考:https://pytorch.org/docs/stable/generated/torch.nn.Linear.html ## 问题来源 ![image](https://img2023.cnblogs.com/blog/3240132/202 阅读全文
posted @ 2023-07-27 20:59 zz子木zz 阅读(74) 评论(0) 推荐(0) 编辑
摘要: **Repeats this tensor along the specified dimensions.** 参考:https://pytorch.org/docs/stable/generated/torch.Tensor.repeat.html ![image](https://img2023 阅读全文
posted @ 2023-07-27 16:35 zz子木zz 阅读(6) 评论(0) 推荐(0) 编辑
摘要: **门控循环神经网络的API** ## 问题来源 【动手学深度学习】【9.7 序列到序列学习】 ![](https://img2023.cnblogs.com/blog/3240132/202307/3240132-20230727102220211-1147333498.png) 这个output 阅读全文
posted @ 2023-07-27 15:56 zz子木zz 阅读(108) 评论(0) 推荐(0) 编辑
摘要: **改变张量维度排列的次序,相当于高级版转置** ``` X_new = X.permute(1,0,2) ``` 把维度1和维度2互换 阅读全文
posted @ 2023-07-27 09:23 zz子木zz 阅读(12) 评论(0) 推荐(0) 编辑
摘要: **将输入的序列转换词向量** 转载:https://www.jianshu.com/p/63e7acc5e890 ,本帖仅用于学习,**请给原博主点赞** 参考:https://pytorch.org/docs/stable/generated/torch.nn.Embedding.html ## 阅读全文
posted @ 2023-07-26 23:18 zz子木zz 阅读(73) 评论(0) 推荐(0) 编辑
摘要: **python2 必须使用super(class, self), python3 两者都可以** ## 问题来源 【动手学深度学习】https://zh-v2.d2l.ai/chapter_recurrent-modern/encoder-decoder.html 9.6 编码器-解码器架构 ![ 阅读全文
posted @ 2023-07-26 22:35 zz子木zz 阅读(8) 评论(0) 推荐(0) 编辑