摘要:
举例1: 比如输入是一个32x32x3的图像,3表示RGB三通道,每个filter/kernel是5x5x3,一个卷积核产生一个feature map,下图中,有6个5x5x3的卷积核,故输出6个feature map(activation map),大小即为28x28x6。 下图中,第二层到第三层 阅读全文
摘要:
举例1: 比如输入是一个32x32x3的图像,3表示RGB三通道,每个filter/kernel是5x5x3,一个卷积核产生一个feature map,下图中,有6个5x5x3的卷积核,故输出6个feature map(activation map),大小即为28x28x6。 下图中,第二层到第三层 阅读全文
摘要:
1. 深度学习中网络越深越好么? 理论上说是这样的,因为网络越深,参数也越多,拟合能力也越强(但实际情况是,网络很深的时候,不容易训练,使得表现能力可能并不好)。 2. 那么,不同什么深度的网络,在参数差不多大小的情况下,深的网络会比浅的网络表现能力好么?即深度较深的网络比较“瘦”,深度较浅的网络比 阅读全文
|