2022年3月27日
摘要: CNN理解 RNN Why: CNN都是水平方向延伸,没有考虑单个隐藏层在时间上时序的变化。RNN关注每一个神经元在时间维度上的不断成长 普通的结构 加入时序关联的结构:表示隐藏层在不同时刻的状态 其中每个时间段的UWV权重矩阵都是共享一个 参考资料: LSTM 参考: 【LSTM长短期记忆网络】3 阅读全文
posted @ 2022-03-27 12:31 低八度 阅读(319) 评论(0) 推荐(0) 编辑
摘要: CNN理解 RNN Why: CNN都是水平方向延伸,没有考虑单个隐藏层在时间上时序的变化。RNN关注每一个神经元在时间维度上的不断成长 普通的结构 加入时序关联的结构:表示隐藏层在不同时刻的状态 其中每个时间段的UWV权重矩阵都是共享一个 参考资料: LSTM 参考: 【LSTM长短期记忆网络】3 阅读全文
posted @ 2022-03-27 12:30 低八度 阅读(494) 评论(0) 推荐(0) 编辑