https://zhuanlan.zhihu.com/p/74841466 Read More
posted @ 2021-03-29 11:41 ethan178 Views(96) Comments(0) Diggs(0) Edit
https://zhuanlan.zhihu.com/p/26306795 Read More
posted @ 2021-03-29 10:32 ethan178 Views(32) Comments(0) Diggs(0) Edit
https://www.clzg.cn/article/59735.html Read More
posted @ 2021-03-28 22:28 ethan178 Views(462) Comments(0) Diggs(0) Edit
http://c.biancheng.net/view/1880.html Read More
posted @ 2021-03-28 22:19 ethan178 Views(16) Comments(0) Diggs(0) Edit
https://blog.csdn.net/stalbo/article/details/79283399 Read More
posted @ 2021-03-28 21:50 ethan178 Views(89) Comments(0) Diggs(0) Edit
https://blog.csdn.net/hjimce/article/details/50414467 maxout是一个函数逼近器,对于一个标准的MLP网络来说,如果隐藏层的神经元足够多,那么理论上我们是可以逼近任意的函数的。 我们可以把maxout 看成是网络的激活函数层 如果我们设定参数k Read More
posted @ 2021-03-28 14:26 ethan178 Views(112) Comments(0) Diggs(0) Edit
https://blog.csdn.net/weixin_34072857/article/details/85900924 Read More
posted @ 2021-03-28 10:57 ethan178 Views(54) Comments(0) Diggs(0) Edit
https://www.zhihu.com/question/56688854/answer/463698542 cnn框架:卷积层(卷积+非线性激活)+池化层+全连接层+分类层。其中,卷积层、池化层、分类层其实都不在意图像大小,但是全连接层有问题。 当然,除了卷积层外,还可以用别的层替换全连接层。 Read More
posted @ 2021-03-15 15:00 ethan178 Views(183) Comments(0) Diggs(0) Edit
https://www.cnblogs.com/tingtin/p/12978320.html 全连接层的输入是固定大小的,如果输入向量的维数不固定,那么全连接的权值参数的量也是不固定的,就会造成网络的动态变化,无法实现参数训练目的。 全连接层的计算其实相当于输入的特征图数据矩阵和全连接层权值矩阵进 Read More
posted @ 2021-03-15 14:50 ethan178 Views(88) Comments(0) Diggs(0) Edit
https://blog.csdn.net/duanmuji/article/details/89055336 Read More
posted @ 2021-03-15 14:49 ethan178 Views(38) Comments(0) Diggs(0) Edit