02 2022 档案

摘要:ResNet简单介绍 ResNet是15年提出的经典网络了。在ResNet提出之前,人们发现当模型层数提升到一定程度后,再增加层数就不再能提升模型效果了——这就导致深度学习网络看似出现了瓶颈,通过增加层数来提升效果的方式似乎已经到头了。ResNet解决了这一问题。 ResNet的核心思想就是引入了残 阅读全文
posted @ 2022-02-28 19:18 JunanP 阅读(137) 评论(0) 推荐(0) 编辑
摘要:1*1的卷积 原来看面经的时候经常看到这么个问题,问的是关于1*1卷积的好处和特点之类的。1*1的卷积,顾名思义就是用大小为1*1的卷积核去做卷积,但也仅仅是长宽为1,卷积核的通道数不做限制。 通过1*1的卷积,每次只看一个像素点里多个通道的信息,不会识别一个通道里面的其他空间信息。因此1*1卷积侧 阅读全文
posted @ 2022-02-26 22:58 JunanP 阅读(75) 评论(0) 推荐(0) 编辑
摘要:对卷积和池化过程有了基本认识之后,这篇文章梳理LeNet、AlexNet以及VGG这三个经典的卷积神经网络,并通过代码实现其网络结构来加深理解。 LeNet LeNet是最早发布的卷积神经网络之一了,LeNet是最早用来处理手写字体识别任务的网络,是非常简单而又经典。一般来说手写字体识别传入的图像是 阅读全文
posted @ 2022-02-24 19:44 JunanP 阅读(34) 评论(0) 推荐(0) 编辑
摘要:之前整理过全连接层的前向传播过程中一些权重参数的维度。这篇文章整理一下带有卷积与池化的神经网络。还是直接给一个例子,从例子出发把各个方面梳理一下。 以AlexNet为例(如下图): 卷积 卷积的作用在于提取特征。可以用不同的卷积核提取不同层次的特征 一般用到卷积和池化的网络都是用于图像任务,我们的输 阅读全文
posted @ 2022-02-22 23:59 JunanP 阅读(74) 评论(0) 推荐(0) 编辑
摘要:我们都知道神经网络中每一个隐层都有参数w和b,输入x首先要乘以w再加上b,最后传入激活函数就会得到这个隐层的输出。——但是,具体w是什么形状、它和x怎么乘、加上的b是在哪里之类的一直不是很清晰,因为在一些算法讲义里这一块一讲起来就容易用各种符号,看起来很复杂(虽然它并不难),而且这方面细节也并不耽误 阅读全文
posted @ 2022-02-21 22:58 JunanP 阅读(66) 评论(0) 推荐(0) 编辑
摘要:在机器学习当中,进行特征选择、特征筛选时都会使用特征之间的相关性分析。比如有两个特征相关程度非常大,几乎都是同一个意思,那么就可以只保留一个特征。简单总结一下一些计算变量之间相关性的指标。 协方差 协方差是概率论当中非常基础的知识点了,它是用来描述两个随机变量相关程度的指标。 公式: 如果两个变量呈 阅读全文
posted @ 2022-02-17 20:14 JunanP 阅读(100) 评论(0) 推荐(0) 编辑
摘要:最小二乘法是一个既熟悉又陌生的东西。 在回归问题中我们经常使用最小二乘法来预测出一条直线或者曲线用于拟合真正的数据点。而拟合数据的方式就是使用最小二乘法——使我们的预测值与真实值之间的差的平方和最小。 因为看起来十分基础和简单,甚至用上面这一段话就讲完了。 然而,为什么是平方和呢?而不是一次方或者三 阅读全文
posted @ 2022-02-14 20:16 JunanP 阅读(95) 评论(0) 推荐(0) 编辑
摘要:在信息论当中,我们经常用熵来表示信息的混乱程度和不确定程度。熵越大,信息的不确定性就越强。 熵的公式如下: (注:log默认以2为底) 把这个公式拆开来看其实非常简单:一个负号,一个p(x)以及log(p(x))。我们知道一个事件发生的概率是0-1之间的,这样一个概率值送入log函数(如下图),肯定 阅读全文
posted @ 2022-02-12 14:02 JunanP 阅读(37) 评论(0) 推荐(0) 编辑
摘要:210. 课程表 II 现在你总共有 numCourses 门课需要选,记为 0 到 numCourses - 1。给你一个数组 prerequisites ,其中 prerequisites[i] = [ai, bi] ,表示在选修课程 ai 前 必须 先选修 bi 。 例如,想要学习课程 0 , 阅读全文
posted @ 2022-02-08 15:09 JunanP 阅读(15) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示