摘要:一、回归定义 找到一个函数,通过输入特征x,输出一个数值结果。 二、模型步骤 (what)模型假设,选择模型框架(线性模型) (why)模型评估,如何判断众多模型(不同参数)的优劣(损失函数) (how)模型优化,如何筛选最优的模型(梯度下降) 三、回归模型 1、线性回归: 一元线性回归 多元线性回
阅读全文
摘要:一、机器学习简介 是什么? 机器学习:给模型(函数)输入数据,输出结果。 机器学习分类: 1)监督学习:即给定输入和输出以及输出,学习函数。 2)半监督学习:数据不够,有一部分数据有输入和输出,但有一部分没有输出。 3)无监督学习:只有输入没有输出。 4)迁移学习:可以有label也可以没有labe
阅读全文
摘要:一、DeepWalk (2014KDD) 1、思想 随机游走+Word2vec 该算法使用随机游走(Random Walk)的方式在图中进行序列的采样. 在获得足够数量的满足一定长度的节点序列之后,就使用word2vec类似的方式,将每一个点看做单词,将点的序列看做是句子,进行训练. Random
阅读全文
摘要:一、图 传统的欧几里得空间数据:文本、图像、视频等【LSTM、CNN可训练】 非欧几里得空间数据:图结构(包含对象和关系,如社交网络、电商网络、生物网络和交通网络等)【图卷积等技术可训练】 1、欧几里得空间 也称欧式空间,二维、三维空间的一般化。将距离、长度和角度等概念转化成任意维度的坐标系。 常见
阅读全文
摘要:参考:https://blog.csdn.net/malefactor/article/details/51078135 一、CNN网络模型 NLP中CNN模型网络: 二、Pooling操作 1、CNN中的Max Pooling Over Time操作 (1)概念: MaxPooling Over
阅读全文
摘要:实战:https://github.com/jiangxinyang227/NLP-Project 一、简介: 1、传统的文本分类方法:【人工特征工程+浅层分类模型】 (1)文本预处理: ①(中文) 文本分词 正向/逆向/双向最大匹配; 基于理解的句法和语义分析消歧; 基于统计的互信息/CRF方法;
阅读全文
摘要:一、train loss 收敛慢,把learning_rate调高 二、train loss不下降: 1、观察数据中是否有异常样本或异常label导致数据读取异常2、调小初始化权重,以便使softmax输入的feature尽可能变小3、降低学习率,这样就能减小权重参数的波动范围,从而减小权重变大的可
阅读全文
摘要:四、self-attention 1、是什么? attention机制通常用在encode与decode之间,但是self-attention则是输入序列与输出序列相同,寻找序列内部元素的关系即 K=V=Q。l例如《Attention Is All You Need》在编码器中使用self-atte
阅读全文
摘要:一、Attention与其他模型 1、LSTM、RNN的缺点:输入的Memory长度不能太长,否则参数会很多。 采用attention可以输入长Memory,参数不会变多。 2、Sequence to Sequence Learning : 输入和输出的句子长度可以不一样,常用来做句子翻译。 比如:
阅读全文
摘要:目录: 一、CPPN 二、孪生网络Siamese 三、改进的孪生网络 四、Triplet Network 一、CPPN(Compositional Pattern Producing Network)复合模式生成网络 CPPN是一种基于遗传算法演化神经网络结构的生成式模型。 1、前言: 一个圆的图像
阅读全文
摘要:目录: 一、RBM 二、Deep Brief Network 三、Deep Autoencoder 一、RBM 二、Deep Brief Network 三、Deep Autoencoder 一、RBM 1、定义【无监督学习】 RBM记住三个要诀:1)两层结构图,可视层和隐藏层;【没输出层】2)层内
阅读全文
摘要:一、自编码器:降维【无监督学习】 PCA简介:【线性】原矩阵乘以过渡矩阵W得到新的矩阵,原矩阵和新矩阵是同样的东西,只是通过W换基。 自编码: 自动编码器是一种无监督的神经网络模型,它可以学习到输入数据的隐含特征,这称为编码(coding),同时用学习到的新特征可以重构出原始输入数据,称之为解码(d
阅读全文
摘要:一、双向循环神经网络BRNN 采用BRNN原因: 双向RNN,即可以从过去的时间点获取记忆,又可以从未来的时间点获取信息。为什么要获取未来的信息呢? 判断下面句子中Teddy是否是人名,如果只从前面两个词是无法得知Teddy是否是人名,如果能有后面的信息就很好判断了,这就需要用的双向循环神经网络。
阅读全文
摘要:一、GRU 其中, rt表示重置门,zt表示更新门。 重置门决定是否将之前的状态忘记。(作用相当于合并了 LSTM 中的遗忘门和传入门) 当rt趋于0的时候,前一个时刻的状态信息ht−1会被忘掉,隐藏状态h^t会被重置为当前输入的信息。 更新门决定是否要将隐藏状态更新为新的状态h^t(作用相当于 L
阅读全文
摘要:摘自https://www.cnblogs.com/pinard/p/6519110.html 一、RNN回顾 略去上面三层,即o,L,y,则RNN的模型可以简化成如下图的形式: 二、LSTM模型结构: 整体模型: 由于RNN梯度消失的问题,大牛们对于序列索引位置t的隐藏结构做了改进,可以说通过一些
阅读全文