摘要: Table of contents Introduction Survey papers Benchmark datasets Fine-grained image recognition Fine-grained recognition by localization-classification 阅读全文
posted @ 2019-11-06 12:59 杨国峰 阅读(3658) 评论(0) 推荐(0) 编辑
摘要: 在colab和kaggle内核的Jupyter notebook中如何可视化深度学习模型的参数对于我们分析模型具有很大的意义,相比tensorflow, pytorch缺乏一些的可视化生态包,但是幸好pytorch1.1官方添加了tensorboard的库,可以直接从TORCH.UTILS.TENS 阅读全文
posted @ 2019-07-03 14:53 杨国峰 阅读(1574) 评论(0) 推荐(0) 编辑
摘要: 当数据量比较小时,可以使用 7 :3 训练数据和测试数据,或者 6:2 : 2 训练数据,验证数据和测试数据。 (西瓜书中描述常见的做法是将大约 2/3 ~ 4/5 的样本数据用于训练,剩余样本用于测试) 当数据量非常大时,可以使用 98 : 1 : 1 训练数据,验证数据和测试数据。 传统机器学习 阅读全文
posted @ 2019-07-01 11:23 杨国峰 阅读(23420) 评论(0) 推荐(1) 编辑
摘要: 阅读全文
posted @ 2019-06-21 22:37 杨国峰 阅读(698) 评论(0) 推荐(0) 编辑
摘要: 一个深度学习模型在各类任务中的表现都需要定量的指标进行评估,才能够进行横向的对比比较,包含了分类、回归、质量评估、生成模型中常用的指标。 1 分类评测指标 图像分类是计算机视觉中最基础的一个任务,也是几乎所有的基准模型进行比较的任务,从最开始比较简单的10分类的灰度图像手写数字识别mnist,到后来 阅读全文
posted @ 2019-05-15 16:06 杨国峰 阅读(9496) 评论(1) 推荐(2) 编辑
摘要: 近年来,深度学习的研究越来越深入,在各个领域也都获得了不少突破性的进展。基于注意力(attention)机制的神经网络成为了最近神经网络研究的一个热点,下面是一些基于attention机制的神经网络在自然语言处理(NLP)领域的论文,现在来对attention在NLP中的应用进行一个总结,和大家一起 阅读全文
posted @ 2019-04-30 16:43 杨国峰 阅读(2254) 评论(1) 推荐(0) 编辑
摘要: 近年来,注意力(Attention)机制被广泛应用到基于深度学习的自然语言处理(NLP)各个任务中。随着注意力机制的深入研究,各式各样的attention被研究者们提出。在2017年6月google机器翻译团队在arXiv上放出的《Attention is all you need》论文受到了大家广 阅读全文
posted @ 2019-04-30 16:39 杨国峰 阅读(2150) 评论(0) 推荐(0) 编辑
摘要: 1. 引言 在介绍论文之前,我将先简单介绍一些相关背景知识。首先是语言模型(Language Model),语言模型简单来说就是一串词序列的概率分布。具体来说,语言模型的作用是为一个长度为m的文本确定一个概率分布P,表示这段文本存在的可能性。在实践中,如果文本的长度较长,P(wi | w1, w2, 阅读全文
posted @ 2019-04-19 11:29 杨国峰 阅读(1152) 评论(0) 推荐(0) 编辑
摘要: 解决分类问题中类别不平衡、分类难度差异的一个 Loss。 阅读全文
posted @ 2019-04-04 16:25 杨国峰 阅读(846) 评论(0) 推荐(0) 编辑
摘要: 简单的特征脸识别实验 实现特征脸的过程其实就是主成分分析(Principal Component Analysis,PCA)的一个过程。关于PCA的原理问题,它是一种数学降维的方法。是为了简化问题。在二维的坐标空间内,找到一个单位向量U,使得所有数据在U上的投影之和最大。这样就能把数据分的尽可能的开 阅读全文
posted @ 2018-12-22 14:31 杨国峰 阅读(2445) 评论(0) 推荐(0) 编辑
摘要: P问题是一类可以通过确定性图灵机(以下简称图灵机)在多项式时间(Polynomial time)内解决的问题集合。 NP问题是一类可以通过非确定性图灵机( Non-deterministic Turing Machine)在多项式时间(Polynomial time)内解决的决策问题集合。 P问题是 阅读全文
posted @ 2018-12-20 15:31 杨国峰 阅读(852) 评论(0) 推荐(0) 编辑
摘要: 什么是SVM SVM是Support Vector Machine(支持向量机)的英文缩写,是上世纪九十年代兴起的一种机器学习算法,在目前神经网络大行其道的情况下依然保持着生命力。有人说现在是神经网络深度学习的时代了,AI从业者可以不用了解像SVM这样的古董了。姑且不说SVM是否真的已经没有前途了, 阅读全文
posted @ 2018-12-20 13:05 杨国峰 阅读(1192) 评论(1) 推荐(0) 编辑
摘要: 这涉及到数学的概率问题。 二元变量分布: 伯努利分布,就是0-1分布(比如一次抛硬币,正面朝上概率) 那么一次抛硬币的概率分布如下: 假设训练数据如下: 那么根据最大似然估计(MLE),我们要求u: 求值推导过程如下: 所以可以求出: 以上的推导过程就是极大似然估计,我们可以看出u就是样本出现的频率 阅读全文
posted @ 2018-12-19 23:00 杨国峰 阅读(914) 评论(0) 推荐(0) 编辑
摘要: 正则化方法:防止过拟合,提高泛化能力 在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在training data上的error渐渐减小,但是在验证集上的error却反而渐渐增大——因为训练出 阅读全文
posted @ 2018-12-19 20:25 杨国峰 阅读(902) 评论(0) 推荐(0) 编辑
摘要: 缩小图像(或称为下采样(subsampled)或降采样(downsampled))的主要目的有两个:1、使得图像符合显示区域的大小;2、生成对应图像的缩略图。 放大图像(或称为上采样(upsampling)或图像插值(interpolating))的主要目的是放大原图像,从而可以显示在更高分辨率的显 阅读全文
posted @ 2018-12-18 17:08 杨国峰 阅读(15522) 评论(0) 推荐(0) 编辑