摘要: 数学符号英文 | 符号 | 英文 | 意义 | | | | | | $A\alpha$ | alpha | 角度、系数、角加速度、第一个、电离度、转化率 | | $B\beta$ | beta | 磁通系数、角度、系数 | | $\Gamma\gamma$ | gamma | 电导系数、角度、比热容 阅读全文
posted @ 2020-02-20 17:20 yu212223 阅读(1348) 评论(0) 推荐(0) 编辑
摘要: 卷积神经网络基础 二维互相关运算 二维互相关(cross correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维数组,其中核数组通常称为卷积核或过滤器(filter)。卷积核的尺寸通常小于输入数组,卷积核在输入数组上滑动,在每个位置上,卷积核与该位置处 阅读全文
posted @ 2020-02-20 00:26 yu212223 阅读(361) 评论(0) 推荐(0) 编辑
摘要: 卷积神经网络进阶 使用全连接层的局限性: 图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。 对于大尺寸的输入图像,使用全连接层容易导致模型过大。 使用卷积层的优势: 卷积层保留输入形状。 卷积层通过滑动窗口将同一卷积核与不同位置的输入重复计算,从而避免参数尺寸过大。 阅读全文
posted @ 2020-02-20 00:25 yu212223 阅读(511) 评论(0) 推荐(0) 编辑
摘要: Transformer CNNs 易于并行化,却不适合捕捉变长序列内的依赖关系。 RNNs 适合捕捉长距离变长序列的依赖,但是却难以实现并行化处理序列。 为了整合CNN和RNN的优势, "\[Vaswani et al., 2017\]" 创新性地使用注意力机制设计了Transformer模型。该模 阅读全文
posted @ 2020-02-20 00:14 yu212223 阅读(520) 评论(0) 推荐(0) 编辑
摘要: 注意力机制和Seq2seq模型 在“编码器—解码器(seq2seq)”⾥,解码器在各个时间步依赖相同的背景变量(context vector)来获取输⼊序列信息。当编码器为循环神经⽹络时,背景变量来⾃它最终时间步的隐藏状态。将源序列输入信息以循环单位状态编码,然后将其传递给解码器以生成目标序列。然而 阅读全文
posted @ 2020-02-20 00:00 yu212223 阅读(318) 评论(0) 推荐(0) 编辑