随笔分类 - AI
摘要:BackGround Machine learning has become increasingly prominent and is widely used in various applications in practice. Despite its great success, the i
阅读全文
摘要:好久没有更新博客了,昨天生日+收到了cmu的offer,打开csdn正直国庆节有一个发勋章的活动,就打算把之前在一个cmu线上项目里我写的报告搬运过来(翻译成中文实在是太麻烦了哈哈哈),这篇文章主要就是写了如果我们先手的情况下,在不同版本的井字棋规则中如何保持不败。三种版本分别是正常Normal版本
阅读全文
摘要:正规方程法是和梯度下降法类似的另一种可以用来解决多元线性回归问题的解法。不同于梯度下降法需要一次次的迭代更新,正规方程法只需要通过解方程的方法,就可以得到最优化结果。这篇文章就简单介绍一下它的原理以及与梯度下降法的不同之处。 首先我们来看这样一幅图来引出一个问题环境。下图中J(θ1)损失函数Cost
阅读全文
摘要:这篇文章记录一下我之前做过的通过Spark与Hive实现的基于协调过滤的电影推荐。这篇文章只能提供算法、思路和过程记录,并没有完整的代码,仅尽量全面地记录过程细节方便参考。 一、数据获取 数据集是从下面这个地址下载的,数据集主要内容是关于用户对电影的评分、评价等。免费数据集下载(很全面)_浅笑古今的
阅读全文
摘要:图灵测试与中文屋 这篇文章想分享关于人工智能的“中文屋论证”(也叫汉字屋,Chinese room)。什么是中文屋论证呢,我们知道图灵测试是判断是机器否是人工智能的公认标准。我先说图灵测试,知道了图灵测试就很好理解汉子屋论证了。 图灵测试非常简单,就是图灵提出来的,判断一个机器是不是具有智能,就是在
阅读全文
摘要:Kmeans聚类是我最早接触的,也是最简单的机器学习聚类算法了。它是一种无监督学习算法。 原理: 还是先简单过一下Kmeans聚类的过程吧。不像模像样地罗列个一二三四,直接口述一下过程就好:比如我们要对二维坐标下一堆散列的点进行Kmeans聚类,我们要提前指定K的值,然后随机选择k个点作为k个聚类中
阅读全文
摘要:密度聚类,也被称为CFDP(Clustering by fast search and find of density peaksd)。 密度聚类的作用和Kmeans聚类差不多,可以将一堆数据分成若干类。“密度聚类”,顾名思义其实就是根据点的密度进行归类,比如说某一处点特别密集,那么这一块会偏向归为
阅读全文
摘要:PCA全称是Principal Component Analysis,即主成分分析。它主要是以“提取出特征的主要成分”这一方式来实现降维的。 介绍PCA的大体思想,先抛开一些原理公式,如上图所示,原来是三维的数据,通过分析找出两个主成分PC1和PC2,那么直接在这两个主成分的方向上就可以形成一个平面
阅读全文
摘要:CycleGAN是一种很方便使用的用于进行图像风格转换的模型。它的一大优势就在于不需要成对的数据集就可以进行训练。比如我们只需要随便一大堆真人图像和随便另一大堆动漫图像,就可以训练出这两类风格互相转换的模型。 CycleGAN进行风格转换的原理是这样的:在CycleGAN模型中有两个生成器和两个判别
阅读全文
摘要:Stylegan的一个非常实用的人脸生成模型,它可以通过控制参数来控制人脸生成的样式,包括五官、发型乃至人种肤色。 这篇文章大致总结一下Stylegan的一些原理和要点。 下图(右边)是stylegan生成器的模型结构: 映射网络Mapping Network 从上图可以看到,传统的生成器的输入就是
阅读全文
摘要:在上篇整理过IN,LN,GN等归一化操作。但还有一些操作名词和它们密切相关,如AdaIN,LIN,AdaLIN等,因为它们主要是出现在图像风格迁移任务中,所以这篇单独拿出来讲一下这几个名词。 AdaIN (首先回顾一下IN:) 通过上篇我们已经知道IN是对于特征图的每一个通道的H、W求均值和标准差,
阅读全文
摘要:原来写过BN(Batch-Normal)在全连接层当中的使用。在更多情况下,我们处理图像的特征图、特征层时也会用到归一化操作,其中就包括BN,也包括LN,IN以及它们的变式等。这篇来整理一下在卷积池化过程当中,对于特征图feature map的各类归一化方法。 关于BN的具体计算公式、优势和特点之类
阅读全文
摘要:GoogLeNet 这篇文章打算简单总结一下GoogLeNet网络,其网络结构如下图所示。 我放上面这张图只是为了方便我们大致了解一下它的结构。我知道这样肯定不太能看清每一层具体细节,因为可以发现,GoogLeNet看起来有非常多且复杂的结构,要是清晰地放在这篇文章里恐怕会占很多篇幅,所以具体、清晰
阅读全文
摘要:BN(Batch-Normal)批量归一化是一个非常常见的步骤了,很多卷积神经网络都使用了批量归一化。 先回顾一下传统的的神经网络前向传播的过程,之前在这篇文章里详细描述过全连接神经网络的输入输出尺寸变化。 通过这个基础铺垫我们知道,对于神经网络中的一层,每输入一条数据 可以得到一条结果, 而实际上
阅读全文
摘要:ResNet简单介绍 ResNet是15年提出的经典网络了。在ResNet提出之前,人们发现当模型层数提升到一定程度后,再增加层数就不再能提升模型效果了——这就导致深度学习网络看似出现了瓶颈,通过增加层数来提升效果的方式似乎已经到头了。ResNet解决了这一问题。 ResNet的核心思想就是引入了残
阅读全文
摘要:1*1的卷积 原来看面经的时候经常看到这么个问题,问的是关于1*1卷积的好处和特点之类的。1*1的卷积,顾名思义就是用大小为1*1的卷积核去做卷积,但也仅仅是长宽为1,卷积核的通道数不做限制。 通过1*1的卷积,每次只看一个像素点里多个通道的信息,不会识别一个通道里面的其他空间信息。因此1*1卷积侧
阅读全文
摘要:对卷积和池化过程有了基本认识之后,这篇文章梳理LeNet、AlexNet以及VGG这三个经典的卷积神经网络,并通过代码实现其网络结构来加深理解。 LeNet LeNet是最早发布的卷积神经网络之一了,LeNet是最早用来处理手写字体识别任务的网络,是非常简单而又经典。一般来说手写字体识别传入的图像是
阅读全文
摘要:之前整理过全连接层的前向传播过程中一些权重参数的维度。这篇文章整理一下带有卷积与池化的神经网络。还是直接给一个例子,从例子出发把各个方面梳理一下。 以AlexNet为例(如下图): 卷积 卷积的作用在于提取特征。可以用不同的卷积核提取不同层次的特征 一般用到卷积和池化的网络都是用于图像任务,我们的输
阅读全文
摘要:我们都知道神经网络中每一个隐层都有参数w和b,输入x首先要乘以w再加上b,最后传入激活函数就会得到这个隐层的输出。——但是,具体w是什么形状、它和x怎么乘、加上的b是在哪里之类的一直不是很清晰,因为在一些算法讲义里这一块一讲起来就容易用各种符号,看起来很复杂(虽然它并不难),而且这方面细节也并不耽误
阅读全文
摘要:前面有一篇文章大概讲解了一下Hive的基本概念,其实Hive的本质就是通过写SQL语句来运行MapReduce操作,因此作为Hive使用者,HiveSQL的使用就对我们非常重要了。 HiveSQL其实也是写SQL,只不过它与传统sql有以下几个方面的区别: 可以看到,HSQ具有与生俱来的的处理大数据
阅读全文