上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 27 下一页
摘要: Recurrent Neural Networks 人类并不是每时每刻都从一片空白的大脑开始他们的思考。在你阅读这篇文章时候,你都是基于自己已经拥有的对先前所见词的理解来推断当前词的真实含义。我们不会将所有的东西都全部丢弃,然后用空白的大脑进行思考。我们的思想拥有持久性。 传统的神经网络并不能做到这 阅读全文
posted @ 2018-05-20 22:45 下路派出所 阅读(183) 评论(0) 推荐(0) 编辑
摘要: 利用已知的样本结果,反推最有可能(最大概率)导致这样结果的参数值。 阅读全文
posted @ 2018-05-19 22:35 下路派出所 阅读(126) 评论(0) 推荐(0) 编辑
摘要: 对文本分词后,接下来需要对分词后的每个term计算一个权重,重要的term应该给与更高的权重。举例来说,“什么产品对减肥帮助最大?”的term weighting结果可能是: “什么 0.1,产品 0.5,对 0.1,减肥 0.8,帮助 0.3,最大 0.2”。Term weighting在文本检索 阅读全文
posted @ 2018-05-18 14:45 下路派出所 阅读(1295) 评论(0) 推荐(0) 编辑
摘要: 语言模型:是用来计算一个句子产生概率的概率模型,即P(w_1,w_2,w_3…w_m),m表示词的总个数。根据贝叶斯公式:P(w_1,w_2,w_3 … w_m) = P(w_1)P(w_2|w_1)P(w_3|w_1,w_2) … P(w_m|w_1,w_2 … w_{m-1})。 N-Gram: 阅读全文
posted @ 2018-05-18 14:26 下路派出所 阅读(192) 评论(0) 推荐(0) 编辑
摘要: 基于字符串匹配的分词方法:此方法按照不同的扫描方式,逐个查找词库进行分词。根据扫描方式可细分为:正向最大匹配,反向最大匹配,双向最大匹配,最小切分(即最短路径)。 全切分方法:它首先切分出与词库匹配的所有可能的词,再运用统计语言模型决定最优的切分结果。它的优点在于可以解决分词中的歧义问题。 下图是一 阅读全文
posted @ 2018-05-18 13:59 下路派出所 阅读(394) 评论(0) 推荐(0) 编辑
摘要: 将词向量转换为一个2维的向量 阅读全文
posted @ 2018-05-14 22:25 下路派出所 阅读(840) 评论(0) 推荐(0) 编辑
摘要: 1. sigmod函数 函数公式和图表如下图 在sigmod函数中我们可以看到,其输出是在(0,1)这个开区间内,这点很有意思,可以联想到概率,但是严格意义上讲,不要当成概率。sigmod函数曾经是比较流行的,它可以想象成一个神经元的放电率,在中间斜率比较大的地方是神经元的敏感区,在两边斜率很平缓的 阅读全文
posted @ 2018-05-09 21:49 下路派出所 阅读(365) 评论(0) 推荐(0) 编辑
摘要: 1.1 什么是过拟合 所谓过拟合(Overfit),是这样一种现象:一个假设在训练数据上能够获得比其他假设更好的拟合,但是在训练数据外的数据集 上却不能很好的拟合数据。此时我们就叫这个假设出现了overfit的现象。 如上图所示:过拟合,就是拟合函数需要顾忌每一个点,最终形成的拟合函数波动很大。在某 阅读全文
posted @ 2018-05-09 21:25 下路派出所 阅读(1024) 评论(0) 推荐(0) 编辑
摘要: sigmoid: Relu: 为什么通常Relu比sigmoid和tanh强,有什么不同?主要是因为它们gradient特性不同。 1.sigmoid和tanh的gradient在饱和区域非常平缓,接近于0,很容易造成vanishing gradient的问题,减缓收敛速度。vanishing gr 阅读全文
posted @ 2018-05-01 21:20 下路派出所 阅读(539) 评论(0) 推荐(0) 编辑
摘要: 1)线性回归要求变量服从正态分布,logistic回归对变量分布没有要求。 2)线性回归要求因变量是连续性数值变量,而logistic回归要求因变量是分类型变量。 3)线性回归要求自变量和因变量呈线性关系,而logistic回归不要求自变量和因变量呈线性关系 4)logistic回归是分析因变量取某 阅读全文
posted @ 2018-04-30 12:26 下路派出所 阅读(3925) 评论(0) 推荐(0) 编辑
上一页 1 ··· 11 12 13 14 15 16 17 18 19 ··· 27 下一页