摘要: 打开"运行"对话框(Win+R),输入cmd,打开控制台命令窗口... 也可以通过cmd /c 命令 和 cmd /k 命令的方式来直接运行命令 注:/c表示执行完命令后关闭cmd窗口;/k表示执行完命令后保留cmd窗口 # 控制台命令窗口中一些技巧 复制内容:右键弹出快捷菜单,选择“标记(K)”, 阅读全文
posted @ 2020-02-16 17:41 hichens 阅读(2111) 评论(0) 推荐(1) 编辑
摘要: 注意力机制 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经⽹络时,背景变量来⾃它最终时间步的隐藏状态。将源序列输入信息以循环单位状态编码,然后将其传递给解码器以生成目标序列。然而这种结构存在着问 阅读全文
posted @ 2020-02-16 16:28 hichens 阅读(337) 评论(0) 推荐(0) 编辑
摘要: GRU RNN存在的问题:梯度较容易出现衰减或爆炸(BPTT) ⻔控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关系 RNN : $$ H_{t} = ϕ(X_{t}W_{xh} + H_{t 1}W_{hh} + b_{h}) $$ GRU : $$ R_{t} = σ(X_tW_{xr} + 阅读全文
posted @ 2020-02-16 16:26 hichens 阅读(224) 评论(0) 推荐(0) 编辑
摘要: Transformer 在之前的章节中,我们已经介绍了主流的神经网络架构如卷积神经网络(CNNs)和循环神经网络(RNNs)。让我们进行一些回顾: CNNs 易于并行化,却不适合捕捉变长序列内的依赖关系。 RNNs 适合捕捉长距离变长序列的依赖,但是却难以实现并行化处理序列。 为了整合CNN和RNN 阅读全文
posted @ 2020-02-16 16:25 hichens 阅读(651) 评论(0) 推荐(0) 编辑
摘要: 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 ['fraeng6506', 'd2l9528', 'd2l6239'] 数据预处理 阅读全文
posted @ 2020-02-16 16:23 hichens 阅读(900) 评论(0) 推荐(0) 编辑
摘要: 今日学习 1.pytorch深度学习 2.python高级编程 3.图像处理笔记整理 4.阅读 1.pytorch深度学习 "机器翻译" "Transformer" cv笔记整理 "笔记地址" 过一个平凡无趣的人生实在太容易了,你可以不读书,不冒险,不运动,不写作,不外出,不折腾……但是,人生最后悔 阅读全文
posted @ 2020-02-16 08:34 hichens 阅读(176) 评论(0) 推荐(0) 编辑