上一页 1 2 3 4 5 6 7 8 9 ··· 16 下一页
摘要: 循环神经网络编码器使用长度可变的序列作为输入,将其编码到循环神经网络编码器固定形状的隐状态中。 为了连续生成输出序列的词元,独立的循环神经网络解码器是基于输入序列的编码信息和输出序列已经看见的或者生成的词元来预测下一个词元。 要点: “<eos>”表示序列结束词元,一旦输出序列生成此词元,模型就会停 阅读全文
posted @ 2023-10-20 11:47 AncilunKiang 阅读(231) 评论(0) 推荐(0) 编辑
摘要: 为了处理这种长度可变的输入和输出, 可以设计一个包含两个主要组件的编码器-解码器(encoder-decoder)架构: 编码器(encoder):它接受一个长度可变的序列作为输入,并将其转换为具有固定形状的编码状态。 解码器(decoder):它将固定形状的编码状态映射到长度可变的序列。 9.6. 阅读全文
posted @ 2023-10-20 11:45 AncilunKiang 阅读(135) 评论(0) 推荐(0) 编辑
摘要: 机器翻译(machine translation)指的是将序列从一种语言自动翻译成另一种语言,基于神经网络的方法通常被称为神经机器翻译(neural machine translation)。 import os import torch from d2l import torch as d2l 9 阅读全文
posted @ 2023-10-19 19:21 AncilunKiang 阅读(134) 评论(0) 推荐(0) 编辑
摘要: 之前的序列学习中假设的目标是在给定观测的情况下对下一个输出进行建模,然而也存在需要后文预测前文的情况。 9.4.1 隐马尔可夫模型中的动态规划 数学推导太复杂了,略。 9.4.2 双向模型 双向循环神经网络(bidirectional RNNs)添加了反向传递信息的隐藏层,以便更灵活地处理此类信息。 阅读全文
posted @ 2023-10-19 12:06 AncilunKiang 阅读(126) 评论(0) 推荐(0) 编辑
摘要: 将多层循环神经网络堆叠在一起,通过对几个简单层的组合,产生一个灵活的机制。其中的数据可能与不同层的堆叠有关。 9.3.1 函数依赖关系 将深度架构中的函数依赖关系形式化,第 l 个隐藏层的隐状态表达式为: \[\boldsymbol{H}^{(l)}_t=\phi_l(\boldsymbol 阅读全文
posted @ 2023-10-19 09:54 AncilunKiang 阅读(102) 评论(0) 推荐(0) 编辑
摘要: 解决隐变量模型长期信息保存和短期输入缺失问题的最早方法之一是长短期存储器(long short-term memory,LSTM)。它与门控循环单元有许多一样的属性。长短期记忆网络的设计比门控循环单元稍微复杂一些,却比门控循环单元早诞生了近 20 年。 9.2.1 门控记忆元 为了记录附加的信息,长 阅读全文
posted @ 2023-10-18 23:22 AncilunKiang 阅读(208) 评论(0) 推荐(0) 编辑
摘要: VMware 配置笔记 CentOS 7.9 镜像下载 官网太慢,建议在阿里云镜像站去CentOS配置页找标准版下载。 选标准版即可,各版本区别: DVD:标准版,包含常用软件,体积为 4.4 G; Everything:包含了所有软件组件,体积高达 9.5G。 Minimal:精简版本,仅包含核心 阅读全文
posted @ 2023-10-17 22:55 AncilunKiang 阅读(18) 评论(0) 推荐(0) 编辑
摘要: 我们可能会遇到这样的情况: 早期观测值对预测所有未来观测值具有非常重要的意义。 考虑一个极端情况,其中第一个观测值包含一个校验和,目标是在序列的末尾辨别校验和是否正确。在这种情况下,第一个词元的影响至关重要。我们希望有某些机制能够在一个记忆元里存储重要的早期信息。如果没有这样的机制,我们将不得不给这 阅读全文
posted @ 2023-10-17 21:49 AncilunKiang 阅读(474) 评论(0) 推荐(0) 编辑
摘要: 8.7.1 循环神经网络的梯度分析 本节主要探讨梯度相关问题,因此对模型及其表达式进行了简化,进行如下表示: (1)ht=f(xt,ht1,wh)(2)ot=g(ht,wo)参数字典: t 表示时间步 \(h_t 阅读全文
posted @ 2023-10-17 10:19 AncilunKiang 阅读(74) 评论(0) 推荐(0) 编辑
摘要: 论文标题 《Deep Residual Learning for Image Recognition》 撑起CV界半边天的论文 Residual :主要思想,残差。 作者 何恺明,超级大佬。微软亚研院属实是人才辈出的地方。 初读 摘要 提问题: 更深层次的神经网络更难训练。 提方案: 提出了残差网络 阅读全文
posted @ 2023-10-17 10:16 AncilunKiang 阅读(287) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 ··· 16 下一页
点击右上角即可分享
微信分享提示