之前实现了一层的卷积神经网络,又实现了两层的卷积神经网络,接下来把cnn扩展到任意层就不难了。
这难道就是传说中的“道生一,一生二,二生三,三生万物”么?=。=
代码还是在github上。
比较有趣的一点是,我分别用两层的神经网络和一层的神经网络进行了实现,结果如下图:
两层的cnn结果:
一层的cnn结果:
可以看到,一层的cnn结果反而比两层的好,那么很有可能是两层的cnn出现了过拟合现象。对于mnist这种小数据集,一层的cnn加上一些参数调优绝对是够用了的。
博主你要不要看看第一句在说什么
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】凌霞软件回馈社区,博客园 & 1Panel & Halo 联合会员上线
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】博客园社区专享云产品让利特惠,阿里云新客6.5折上折
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· [.NET]调用本地 Deepseek 模型
· 一个费力不讨好的项目,让我损失了近一半的绩效!
· .NET Core 托管堆内存泄露/CPU异常的常见思路
· PostgreSQL 和 SQL Server 在统计信息维护中的关键差异
· C++代码改造为UTF-8编码问题的总结
· 【.NET】调用本地 Deepseek 模型
· CSnakes vs Python.NET:高效嵌入与灵活互通的跨语言方案对比
· DeepSeek “源神”启动!「GitHub 热点速览」
· 我与微信审核的“相爱相杀”看个人小程序副业
· Plotly.NET 一个为 .NET 打造的强大开源交互式图表库
2014-06-19 【leetcode】Search a 2D Matrix
2014-06-19 【leetcode】Minimum Path Sum
2014-06-19 【leetcode】Unique Paths