05 2018 档案

摘要:1.先使用pip安装pyltp-0.2.1-cp36-cp36m-win_amd64.whl 2.再参考API文档进行具体的使用:http://pyltp.readthedocs.io/zh_CN/develop/api.html Pyltp包地址:链接:https://pan.baidu.com/ 阅读全文
posted @ 2018-05-30 15:08 下路派出所 阅读(274) 评论(0) 推荐(0)
摘要:GRU模型(比LSTM减少了计算量) LSTM的模型,LSTM的重复网络模块的结构很复杂,它实现了三个门计算,即遗忘门、输入门和输出门。 而GRU模型如下,它只有两个门了,分别为更新门和重置门,即图中的Zt和Rt。更新门用于控制前一时刻的状态信息被带入到当前状态中的程度,更新门的值越大说明前一时刻的 阅读全文
posted @ 2018-05-30 14:39 下路派出所 阅读(355) 评论(0) 推荐(0)
摘要:LDA只是一个求解思路。 1.理解LDA首先要理解EM算法,EM不能叫做一个算法,只是一个思想:它要求解的其实是一个极大似然估计,就是我用已知量去求解导致这个已知量出现的最大概率,而在这里又恰恰有点偏,这个已知量是我们开始给定的这个初值,我们要去用这个已知量去求解最大,然后再用这个最大值再带入到我们 阅读全文
posted @ 2018-05-24 22:25 下路派出所 阅读(279) 评论(0) 推荐(0)
摘要:1.tf.convert_to_tensor:传入的list必须是一个有固定长度的list,如果为2维的list,第二维的list的长度必须是固定。 2.tf.layers.conv1d(),默认宽卷积,里面的参数filter_size,为卷积核的height,而卷积核的width为输入的width 阅读全文
posted @ 2018-05-23 11:12 下路派出所 阅读(372) 评论(0) 推荐(0)
摘要:LSTM 网络 Long Short Term 网络—— 一般就叫做 LSTM ——是一种 RNN 特殊的类型,可以学习长期依赖信息。LSTM 由Hochreiter & Schmidhuber (1997)提出,并在近期被Alex Graves进行了改良和推广。在很多问题,LSTM 都取得相当巨大 阅读全文
posted @ 2018-05-20 23:17 下路派出所 阅读(265) 评论(0) 推荐(0)
摘要:Recurrent Neural Networks 人类并不是每时每刻都从一片空白的大脑开始他们的思考。在你阅读这篇文章时候,你都是基于自己已经拥有的对先前所见词的理解来推断当前词的真实含义。我们不会将所有的东西都全部丢弃,然后用空白的大脑进行思考。我们的思想拥有持久性。 传统的神经网络并不能做到这 阅读全文
posted @ 2018-05-20 22:45 下路派出所 阅读(207) 评论(0) 推荐(0)
摘要:利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值。 阅读全文
posted @ 2018-05-19 22:35 下路派出所 阅读(158) 评论(0) 推荐(0)
摘要:对文本分词后,接下来需要对分词后的每个term计算一个权重,重要的term应该给与更高的权重。举例来说,“什么产品对减肥帮助最大?”的term weighting结果可能是: “什么 0.1,产品 0.5,对 0.1,减肥 0.8,帮助 0.3,最大 0.2”。Term weighting在文本检索 阅读全文
posted @ 2018-05-18 14:45 下路派出所 阅读(1356) 评论(0) 推荐(0)
摘要:语言模型:是用来计算一个句子产生概率的概率模型,即P(w_1,w_2,w_3…w_m),m表示词的总个数。根据贝叶斯公式:P(w_1,w_2,w_3 … w_m) = P(w_1)P(w_2|w_1)P(w_3|w_1,w_2) … P(w_m|w_1,w_2 … w_{m-1})。 N-Gram: 阅读全文
posted @ 2018-05-18 14:26 下路派出所 阅读(240) 评论(0) 推荐(0)
摘要:基于字符串匹配的分词方法:此方法按照不同的扫描方式,逐个查找词库进行分词。根据扫描方式可细分为:正向最大匹配,反向最大匹配,双向最大匹配,最小切分(即最短路径)。 全切分方法:它首先切分出与词库匹配的所有可能的词,再运用统计语言模型决定最优的切分结果。它的优点在于可以解决分词中的歧义问题。 下图是一 阅读全文
posted @ 2018-05-18 13:59 下路派出所 阅读(474) 评论(0) 推荐(0)
摘要:将词向量转换为一个2维的向量 阅读全文
posted @ 2018-05-14 22:25 下路派出所 阅读(859) 评论(0) 推荐(0)
摘要:1. sigmod函数 函数公式和图表如下图 在sigmod函数中我们可以看到,其输出是在(0,1)这个开区间内,这点很有意思,可以联想到概率,但是严格意义上讲,不要当成概率。sigmod函数曾经是比较流行的,它可以想象成一个神经元的放电率,在中间斜率比较大的地方是神经元的敏感区,在两边斜率很平缓的 阅读全文
posted @ 2018-05-09 21:49 下路派出所 阅读(424) 评论(0) 推荐(0)
摘要:1.1 什么是过拟合 所谓过拟合(Overfit),是这样一种现象:一个假设在训练数据上能够获得比其他假设更好的拟合,但是在训练数据外的数据集 上却不能很好的拟合数据。此时我们就叫这个假设出现了overfit的现象。 如上图所示:过拟合,就是拟合函数需要顾忌每一个点,最终形成的拟合函数波动很大。在某 阅读全文
posted @ 2018-05-09 21:25 下路派出所 阅读(1137) 评论(0) 推荐(0)
摘要:sigmoid: Relu: 为什么通常Relu比sigmoid和tanh强,有什么不同?主要是因为它们gradient特性不同。 1.sigmoid和tanh的gradient在饱和区域非常平缓,接近于0,很容易造成vanishing gradient的问题,减缓收敛速度。vanishing gr 阅读全文
posted @ 2018-05-01 21:20 下路派出所 阅读(607) 评论(0) 推荐(0)