摘要: 因为本人近期也要紧临毕业,面临招聘面试,所以整体别人公开的面经,做一个整理,并且加上自己认为的答案,欢迎各位读者对答案进行指正和交流。 深度残差的作用 直观上,深度加深,出现梯度消失和梯度爆炸的问题 在论文中,出现了一个奇怪的现象,就是56层网络效果没有20层的好。本质问题是因为网络深造成信息丢失从 阅读全文
posted @ 2020-05-20 19:55 忽逢桃林 阅读(453) 评论(0) 推荐(0) 编辑
摘要: 什么是TCN TCN全称Temporal Convolutional Network,时序卷积网络,是在2018年提出的一个卷积模型,但是可以用来处理时间序列。 卷积如何处理时间序列 时间序列预测,最容易想到的就是那个马尔可夫模型: \(P(y_k|x_k,x_{k-1},...,x_1)\) 就是 阅读全文
posted @ 2020-05-20 19:54 忽逢桃林 阅读(7523) 评论(0) 推荐(3) 编辑
摘要: 卡尔曼滤波器 英文kalman filter 这里介绍简单的,只有一个状态的滤波器 卡尔曼滤波器经常用在控制系统中、机器人系统中,但是这里主要讲解如何用在AI的大数据分析预测中 为什么要用kalman filter处理时间序列 假设我们有100个时间点的数据,这个数据就是分别在100个点观测出来的结 阅读全文
posted @ 2020-05-20 19:53 忽逢桃林 阅读(6221) 评论(1) 推荐(1) 编辑
摘要: 通俗讲:端侧神经网络GhostNet(2019) GhostNet是华为诺亚方舟实验室提出的一个新型神经网络结构。目的类似Google提出的MobileNet,都是为了硬件、移动端设计的轻小网络,但是效果想摆MobileNet更好。 GhostNet基于Ghost模块,这个特点是不改变卷积的输出特征 阅读全文
posted @ 2020-05-20 19:52 忽逢桃林 阅读(469) 评论(0) 推荐(0) 编辑
摘要: GoogleNet和VGG是ImageNet挑战赛中的第一名和第二名。共同特点就是两个网络的层次都更深了。但是: VGG继承了LeNet和AlexNet的一些框架结构 而GoogleNet则做了更大胆的尝试,虽然深度有22层,但是参数却是Alexnet的1/12.而VGG都是Alexnet的三倍,由 阅读全文
posted @ 2020-05-20 19:51 忽逢桃林 阅读(396) 评论(0) 推荐(0) 编辑
摘要: googleNet是2014年的ILSVRC的冠军模型,GoogleNet做了更大胆的网络上的尝试,而不是像vgg继承了lenet以及alexnet的一切框架。GoogleNet虽然有22层,但是参数量只有AlexNet的1/12 GoogleNet论文指出获得高质量模型最保险的做法就是增加模型的深 阅读全文
posted @ 2020-05-20 19:49 忽逢桃林 阅读(1302) 评论(0) 推荐(0) 编辑
摘要: 看的多个Kaggle上 图片分类比赛 的代码,发现基本都会选择resnet网络作为前置网络进行训练,那么如何实现这个呢? 本文主要分为两个部分 第一个部分讲解如何使用PyTorch来实现前置网络的设置,以及参数的下载和导入 第二个部分简单讲一下resnet运行的原理。 第一部分:实现 有一个非常好用 阅读全文
posted @ 2020-05-20 19:48 忽逢桃林 阅读(1196) 评论(0) 推荐(0) 编辑
摘要: 可将准确率提高若干个百分点,它就是测试时增强(test time augmentation, TTA)。这里会为原始图像造出多个不同版本,包括不同区域裁剪和更改缩放程度等,并将它们输入到模型中;然后对多个版本进行计算得到平均输出,作为图像的最终输出分数 这种技术很有效,因为原始图像显示的区域可能会缺 阅读全文
posted @ 2020-05-20 19:46 忽逢桃林 阅读(905) 评论(0) 推荐(0) 编辑
摘要: 先来看一下这是什么任务。就是给你手写数组的图片,然后识别这是什么数字: ![ ](https://pic1.zhimg.com/80/v2 a549cdd27383bcde894e0c604301f25d_hd.png) dataset 首先先来看PyTorch的dataset类: 我已经在 "从零 阅读全文
posted @ 2020-05-20 19:36 忽逢桃林 阅读(874) 评论(0) 推荐(0) 编辑