摘要:
在上个lecture中,我们看到了任意特定层是如何生成输出的,输入数据在全连接层或者卷积层,将输入乘以权重值,之后将结果放入激活函数(非线性单元) 下面是一些激活函数的例子,有在之前使用过的sigmoid函数,之前提及到的ReLU函数。这里会提及更多的激活函数,并在它们之间进行权衡。 先是之前见过的 阅读全文
摘要:
原博客:https://blog.csdn.net/dawningblue/article/details/82902336 用不是特别严谨但是比较通俗的语言描述整个过程 卷积神经网络是从卷积层开始介绍的,而卷积层的介绍是从全连接层开始介绍的。 全连接层的处理方式是一次性处理一张图片的全部信息,处理 阅读全文