摘要: 卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross correlation)运算的输入是一个二维输入数组和一个二维核(ker 阅读全文
posted @ 2020-02-17 20:35 hichens 阅读(769) 评论(0) 推荐(1) 编辑
摘要: course content 1. lenet 模型介绍 2. lenet 网络搭建 3. 运用lenet进行图像识别 fashion mnist数据集 Convolutional Neural Networks 使用全连接层的局限性: 图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式 阅读全文
posted @ 2020-02-17 20:24 hichens 阅读(468) 评论(0) 推荐(0) 编辑
摘要: 今日学习 python 高级编程 素描 pytorch深度学习 项目 阅读 pytorch 打卡 "pytorch 打卡" 阅读 阅读全文
posted @ 2020-02-17 09:58 hichens 阅读(211) 评论(0) 推荐(0) 编辑
摘要: 打开"运行"对话框(Win+R),输入cmd,打开控制台命令窗口... 也可以通过cmd /c 命令 和 cmd /k 命令的方式来直接运行命令 注:/c表示执行完命令后关闭cmd窗口;/k表示执行完命令后保留cmd窗口 # 控制台命令窗口中一些技巧 复制内容:右键弹出快捷菜单,选择“标记(K)”, 阅读全文
posted @ 2020-02-16 17:41 hichens 阅读(2109) 评论(0) 推荐(1) 编辑
摘要: 注意力机制 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经⽹络时,背景变量来⾃它最终时间步的隐藏状态。将源序列输入信息以循环单位状态编码,然后将其传递给解码器以生成目标序列。然而这种结构存在着问 阅读全文
posted @ 2020-02-16 16:28 hichens 阅读(337) 评论(0) 推荐(0) 编辑
摘要: GRU RNN存在的问题:梯度较容易出现衰减或爆炸(BPTT) ⻔控循环神经⽹络:捕捉时间序列中时间步距离较⼤的依赖关系 RNN : $$ H_{t} = ϕ(X_{t}W_{xh} + H_{t 1}W_{hh} + b_{h}) $$ GRU : $$ R_{t} = σ(X_tW_{xr} + 阅读全文
posted @ 2020-02-16 16:26 hichens 阅读(224) 评论(0) 推荐(0) 编辑
摘要: Transformer 在之前的章节中,我们已经介绍了主流的神经网络架构如卷积神经网络(CNNs)和循环神经网络(RNNs)。让我们进行一些回顾: CNNs 易于并行化,却不适合捕捉变长序列内的依赖关系。 RNNs 适合捕捉长距离变长序列的依赖,但是却难以实现并行化处理序列。 为了整合CNN和RNN 阅读全文
posted @ 2020-02-16 16:25 hichens 阅读(651) 评论(0) 推荐(0) 编辑
摘要: 机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度不同。 ['fraeng6506', 'd2l9528', 'd2l6239'] 数据预处理 阅读全文
posted @ 2020-02-16 16:23 hichens 阅读(900) 评论(0) 推荐(0) 编辑
摘要: 今日学习 1.pytorch深度学习 2.python高级编程 3.图像处理笔记整理 4.阅读 1.pytorch深度学习 "机器翻译" "Transformer" cv笔记整理 "笔记地址" 过一个平凡无趣的人生实在太容易了,你可以不读书,不冒险,不运动,不写作,不外出,不折腾……但是,人生最后悔 阅读全文
posted @ 2020-02-16 08:34 hichens 阅读(176) 评论(0) 推荐(0) 编辑
摘要: 过拟合、欠拟合及其解决方案 1. 过拟合、欠拟合的概念 2. 权重衰减 3. 丢弃法 模型选择、过拟合和欠拟合 训练误差和泛化误差 在解释上述现象之前,我们需要区分训练误差(training error)和泛化误差(generalization error)。通俗来讲,前者指模型在训练数据集上表现出 阅读全文
posted @ 2020-02-15 22:18 hichens 阅读(4699) 评论(0) 推荐(0) 编辑