[Deep Learning]任意层cnn的matlab版本实现

之前实现了一层的卷积神经网络,又实现了两层的卷积神经网络,接下来把cnn扩展到任意层就不难了。

这难道就是传说中的“道生一,一生二,二生三,三生万物”么?=。=

代码还是在github上。

比较有趣的一点是,我分别用两层的神经网络和一层的神经网络进行了实现,结果如下图:

两层的cnn结果:

一层的cnn结果:

可以看到,一层的cnn结果反而比两层的好,那么很有可能是两层的cnn出现了过拟合现象。对于mnist这种小数据集,一层的cnn加上一些参数调优绝对是够用了的。

posted @   SunshineAtNoon  阅读(4545)  评论(0编辑  收藏  举报
编辑推荐:
· [.NET]调用本地 Deepseek 模型
· 一个费力不讨好的项目,让我损失了近一半的绩效!
· .NET Core 托管堆内存泄露/CPU异常的常见思路
· PostgreSQL 和 SQL Server 在统计信息维护中的关键差异
· C++代码改造为UTF-8编码问题的总结
阅读排行:
· 【.NET】调用本地 Deepseek 模型
· CSnakes vs Python.NET:高效嵌入与灵活互通的跨语言方案对比
· DeepSeek “源神”启动!「GitHub 热点速览」
· 我与微信审核的“相爱相杀”看个人小程序副业
· Plotly.NET 一个为 .NET 打造的强大开源交互式图表库
历史上的今天:
2014-06-19 【leetcode】Search a 2D Matrix
2014-06-19 【leetcode】Minimum Path Sum
2014-06-19 【leetcode】Unique Paths
点击右上角即可分享
微信分享提示