上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 25 下一页
长短时记忆网络LSTM(Long Short Term Memory Network) 思路:原始 RNN 的隐藏层只有一个状态,即h,它对于短期的输入非常敏感。再增加一个状态,即c,让它来保存长期的状态,称为单元状态(cell state)。 例子参考: 大脑:working memory 3.1 Read More
posted @ 2020-07-01 21:04 A-inspire Views(756) Comments(0) Diggs(0) Edit
先来看一个例子: 之前的全连接神经网络的结构:它的隐藏层的值只取决于输入的 x: 该结构对于上面问题只能做如下预测: 比如:可以预测:花开时——>跑得快 由此可见:通过简单的神经网络(单层的前馈神经网络)无法解决该三个问题,需要用关联的神经网络来解决。 RNN:Motivation:需要前馈信息。 Read More
posted @ 2020-07-01 11:49 A-inspire Views(510) Comments(0) Diggs(0) Edit
Boosting 是一族可将弱学习器提升为强学习器的算法。 关于 Boosting 的两个核心问题: 1.在每一轮如何改变训练数据的权值或概率分布? 通过提高那些在前一轮被弱分类器分错样例的权值,减小前一轮分对样本的权值,而误分的样本在后续受到更多的关注. 2、通过什么方式来组合弱分类器? 通过加法 Read More
posted @ 2020-06-15 15:30 A-inspire Views(2036) Comments(0) Diggs(0) Edit
题目描述: 你玩过“拉灯”游戏吗?25盏灯排成一个5x5的方形。每一个灯都有一个开关,游戏者可以改变它的状态。每一步,游戏者可以改变某一个灯的状态。游戏者改变一个灯的状态会产生连锁反应:和这个灯上下左右相邻的灯也要相应地改变其状态。 我们用数字“1”表示一盏开着的灯,用数字“0”表示关着的灯。下面这 Read More
posted @ 2019-08-15 16:11 A-inspire Views(241) Comments(0) Diggs(0) Edit
代码: Read More
posted @ 2019-08-13 11:39 A-inspire Views(191) Comments(0) Diggs(0) Edit
代码: Read More
posted @ 2019-08-13 11:38 A-inspire Views(258) Comments(0) Diggs(0) Edit
代码: Read More
posted @ 2019-08-13 11:37 A-inspire Views(176) Comments(0) Diggs(0) Edit
代码: Read More
posted @ 2019-07-21 23:08 A-inspire Views(205) Comments(0) Diggs(0) Edit
代码: Read More
posted @ 2019-07-21 22:21 A-inspire Views(124) Comments(0) Diggs(0) Edit
代码: //0 1 背包:从大到小枚举 //完全背包:从小到大枚举 比较好理解的一种方式: Read More
posted @ 2019-07-20 22:15 A-inspire Views(148) Comments(0) Diggs(0) Edit
上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 25 下一页