2022 PRML Stock Prediction

关于RNN(循环神经网络)(简略了解):

 https://zhuanlan.zhihu.com/p/105383343

关于LSTM(长短期记忆网络)以及GRU:

Q1:LSTM如何实现长短期记忆?(《百面深度学习》p54)

  一般的RNN(循环神经网络)中,一般是参数共享的【1】,存在对于短期的数据敏感,但是对于长期数据不敏感的问题。LSTM能解决这个问题。首先,它增加了一个cell state单元(就是图里面的c参数,h参数是隐藏状态单元),在不同的时间有可变的权重,解决梯度消失,梯度爆炸的问题。(因为 在(U, W, b)这几个参数不变的情况下,梯度在反向传播过程中,不断连乘,数值不是越来越大就是越来越小)(对有价值的信息进行记忆,放弃冗余记忆,从而减小学习难度。) 它在内部引入了GRU门控单元(输入门,遗忘门,输出门)与内部记忆单元。具体计算见注释【2】。总而言之,LSTM通过门控单元h以及状态单元c的线性自循环,改变以往的信息传播方式,解决了RNN的长期依赖问题(随着输入序列增加,以往的信息无法被学习和利用的问题)

 

 

【1】:关于RNN的网络结构与参数共享:https://www.cnblogs.com/wisteria68/p/13488819.html

【2】:关于LSTM:https://zhuanlan.zhihu.com/p/106046810         https://blog.csdn.net/qian99/article/details/88628383

【3】:LSTM实现股票预测:https://zhuanlan.zhihu.com/p/108319473

 

Q2:GRU(门控循环单元)如何控制时间序列的记忆与遗忘行为?(《百面深度学习》p57)

  使用了更新门代替遗忘门和记忆门的功能。遗忘多少就会记忆多少作为弥补。

 

【1】:关于GRU:https://zhuanlan.zhihu.com/p/106276295

 

 关于AdaGrad优化算法:

  

 

 【1】:关于AdaGrad算法https://blog.csdn.net/bitcarmanlee/article/details/122458688?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522166117608016780357271892%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=166117608016780357271892&biz_id=0&utm_medium=distribute.pc_search_result.none-task-blog-2~all~sobaiduend~default-2-122458688-null-null.142^v42^pc_ran_alice,185^v2^control&utm_term=Adagrad%E4%BC%98%E5%8C%96%E7%AE%97%E6%B3%95&spm=1018.2226.3001.4187

【2】见百面机器学习优化算法一章,需要系统学习。

 

关于期望方差explained_variance_score:

用于回归模型的准确率。

https://blog.csdn.net/frank_haha/article/details/115707717

 

 

(未完待续)

 

posted @   0MrMKG  阅读(19)  评论(0编辑  收藏  举报
(评论功能已被禁用)
相关博文:
阅读排行:
· DeepSeek 开源周回顾「GitHub 热点速览」
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· AI与.NET技术实操系列(二):开始使用ML.NET
· 单线程的Redis速度为什么快?
点击右上角即可分享
微信分享提示