01 2019 档案

word2vec
摘要:http://www.360doc.com/content/17/0705/18/10408243_669124232.shtml# -*- coding:utf-8 -*-import mathimport osimport randomimport zipfileimport numpy as 阅读全文

posted @ 2019-01-29 15:49 AI大道理 阅读(460) 评论(0) 推荐(0) 编辑

word2vec 细节解析1
摘要:count.extend(collections.Counter(list1).most_common(2))表示:使用collections.Counter统计list1列表重单词的频数,然后使用most_common方法取top2频数的单词。然后加入到count中。# -*- coding:ut 阅读全文

posted @ 2019-01-29 14:18 AI大道理 阅读(394) 评论(0) 推荐(0) 编辑

collections-Counter
摘要:可可_小虾米 做想做的一切,并且一直坚持,相信时间的力量 可可_小虾米 做想做的一切,并且一直坚持,相信时间的力量 可可_小虾米 做想做的一切,并且一直坚持,相信时间的力量 【python深入】collections-Counter使用总结 关于collections的使用,首先介绍:Counter 阅读全文

posted @ 2019-01-29 00:36 AI大道理 阅读(211) 评论(0) 推荐(0) 编辑

skip-gram模型
摘要:引言在许多自然语言处理任务中,许多单词表达是由他们的tf-idf分数决定的。即使这些分数告诉我们一个单词在一个文本中的相对重要性,但是他们并没有告诉我们单词的语义。Word2vec是一类神经网络模型——在给定无标签的语料库的情况下,为语料库中的单词产生一个能表达语义的向量。这些向量通常是有用的: 通 阅读全文

posted @ 2019-01-27 22:35 AI大道理 阅读(915) 评论(0) 推荐(0) 编辑

动量Momentum梯度下降算法
摘要:梯度下降是机器学习中用来使模型逼近真实分布的最小偏差的优化方法。 在普通的随机梯度下降和批梯度下降当中,参数的更新是按照如下公式进行的: W = W - αdW b = b - αdb 其中α是学习率,dW、db是cost function对w和b的偏导数。 随机梯度下降和批梯度下降的区别只是输入的 阅读全文

posted @ 2019-01-27 21:25 AI大道理 阅读(1146) 评论(0) 推荐(0) 编辑

Redis
摘要:定义 定义 redis是一个key-value存储系统。和Memcached类似,它支持存储的value类型相对更多,包括string(字符串)、list(链表)、set(集合)、zset(sorted set --有序集合)和hash(哈希类型)。这些数据类型都支持push/pop、add/rem 阅读全文

posted @ 2019-01-27 20:14 AI大道理 阅读(326) 评论(0) 推荐(0) 编辑

mySQL
摘要:mySQL (关系型数据库管理系统) MySQL是一个关系型数据库管理系统,由瑞典MySQL AB 公司开发,目前属于 Oracle 旗下产品。MySQL 是最流行的关系型数据库管理系统之一,在 WEB 应用方面,MySQL是最好的 RDBMS (Relational Database Manage 阅读全文

posted @ 2019-01-27 20:12 AI大道理 阅读(219) 评论(0) 推荐(0) 编辑

梯度消失与梯度爆炸
摘要:https://blog.csdn.net/qq_25737169/article/details/78847691 产生消失的梯度问题的原因 先看一个极简单的深度神经网络:每一层都只有一个单一的神经元。如下图: 代价函数C对偏置b1的偏导数的结果计算如下: 先看一下sigmoid 函数导数的图像: 阅读全文

posted @ 2019-01-27 16:56 AI大道理 阅读(272) 评论(0) 推荐(0) 编辑

早停法(Early Stopping)
摘要:一、早停法简介(Early Stopping)当我们训练深度学习神经网络的时候通常希望能获得最好的泛化性能(generalization performance,即可以很好地拟合数据)。但是所有的标准深度学习神经网络结构如全连接多层感知机都很容易过拟合:当网络在训练集上表现越来越好,错误率越来越低的 阅读全文

posted @ 2019-01-27 16:13 AI大道理 阅读(3494) 评论(0) 推荐(0) 编辑

sorted()
摘要:描述 sorted() 函数对所有可迭代的对象进行排序操作。 sort 与 sorted 区别: sort 是应用在 list 上的方法,sorted 可以对所有可迭代的对象进行排序操作。 list 的 sort 方法返回的是对已经存在的列表进行操作,无返回值,而内建函数 sorted 方法返回的是 阅读全文

posted @ 2019-01-26 10:04 AI大道理 阅读(415) 评论(0) 推荐(0) 编辑

哈希
摘要:https://www.cnblogs.com/gaochundong/p/hashtable_and_perfect_hashing.html "哈希“是”Hash“的音译吧!曾见过翻译为“杂凑”算法,你可搜索一下"Hash"算法,看看定义。对于Python中的dict(字典)数据结构,key可以 阅读全文

posted @ 2019-01-25 16:04 AI大道理 阅读(318) 评论(0) 推荐(0) 编辑

梅尔倒谱系数
摘要:MFCC梅尔倒谱系数是说话人识别、语音识别中最为常用的特征。我曾经对这个特征困惑了很久,包括为什么步骤中要取对数,为什么要最后一步要做DCT等等,以下将把我的理解记录下来,我找到的参考文献中最有价值的要数【1】了。是CUM一个教授做的PPT。 整个流程如下: 时域的波形图如下 图1. 时域波形图 第 阅读全文

posted @ 2019-01-24 16:05 AI大道理 阅读(1500) 评论(0) 推荐(0) 编辑

os.path.join()
摘要: 阅读全文

posted @ 2019-01-24 10:21 AI大道理 阅读(203) 评论(0) 推荐(0) 编辑

tf.unstack()、tf.stack()
摘要:tf.unstack 原型: unstack( value, num=None, axis=0, name='unstack' ) 官方解释:https://tensorflow.google.cn/api_docs/python/tf/unstack 解释:这是一个对矩阵进行分解的函数,以下为关键 阅读全文

posted @ 2019-01-19 00:09 AI大道理 阅读(854) 评论(0) 推荐(0) 编辑

tf.unstack\tf.unstack
摘要:tf.unstack 原型: unstack( value, num=None, axis=0, name='unstack' ) 官方解释:https://tensorflow.google.cn/api_docs/python/tf/unstack 解释:这是一个对矩阵进行分解的函数,以下为关键 阅读全文

posted @ 2019-01-19 00:08 AI大道理 阅读(467) 评论(0) 推荐(0) 编辑

tf.Session()、tf.InteractiveSession()
摘要:tf.Session()和tf.InteractiveSession()的区别 官方tutorial是这么说的: The only difference with a regular Session is that an InteractiveSession installs itself as t 阅读全文

posted @ 2019-01-18 16:37 AI大道理 阅读(795) 评论(0) 推荐(0) 编辑

np.random.randn()、np.random.rand()、np.random.randint()
摘要:(1)np.random.randn()函数 语法: np.random.randn(d0,d1,d2……dn) 1)当函数括号内没有参数时,则返回一个浮点数; 2)当函数括号内有一个参数时,则返回秩为1的数组,不能表示向量和矩阵; 3)当函数括号内有两个及以上参数时,则返回对应维度的数组,能表示向 阅读全文

posted @ 2019-01-18 16:15 AI大道理 阅读(6622) 评论(0) 推荐(0) 编辑

numpy.unpackbits()
摘要:numpy.unpackbits Unpacks elements of a uint8 array into a binary-valued output array. Each element of myarray represents a bit-field that should be un 阅读全文

posted @ 2019-01-14 22:11 AI大道理 阅读(645) 评论(0) 推荐(0) 编辑

tf.get_variable()
摘要:1. tf.Variable()W = tf.Variable(<initial-value>, name=<optional-name>)1用于生成一个初始值为initial-value的变量。必须指定初始化值 2.tf.get_variable() W = tf.get_variable(nam 阅读全文

posted @ 2019-01-10 10:45 AI大道理 阅读(1491) 评论(0) 推荐(0) 编辑

TensorFlow—CNN—CIFAR数据集分类
摘要: 阅读全文

posted @ 2019-01-03 09:55 AI大道理 阅读(314) 评论(0) 推荐(0) 编辑

tf.truncated_normal()
摘要:tf.truncated_normal(shape, mean=0.0, stddev=1.0, dtype=tf.float32, seed=None, name=None)1从截断的正态分布中输出随机值。 生成的值服从具有指定平均值和标准偏差的正态分布,如果生成的值大于平均值2个标准偏差的值则丢 阅读全文

posted @ 2019-01-02 14:58 AI大道理 阅读(648) 评论(0) 推荐(0) 编辑

tf.FIFOQueue()
摘要:Tensorflow–tf.FIFOQueue详解描述tf.FIFOQueue根据先进先出(FIFO)的原则创建一个队列。队列是Tensorflow的一种数据结构,每个队列的元素都是包含一个或多个张量的元组,每个元组都有静态的类型和尺寸。入列和出列可以支持一次一个元素,或一次一批元素。它继承于Ten 阅读全文

posted @ 2019-01-02 11:19 AI大道理 阅读(421) 评论(0) 推荐(0) 编辑

np.hsplit()
摘要:numpy.hsplit Split an array into multiple sub-arrays horizontally (column-wise). Please refer to the split documentation. hsplit is equivalent to spli 阅读全文

posted @ 2019-01-02 11:18 AI大道理 阅读(1605) 评论(0) 推荐(0) 编辑

np.frombuffer()
摘要:numpy.frombuffer Interpret a buffer as a 1-dimensional array. An object that exposes the buffer interface. Data-type of the returned array; default: f 阅读全文

posted @ 2019-01-02 10:35 AI大道理 阅读(5134) 评论(0) 推荐(0) 编辑

Python内置函数详解——总结篇
摘要:https://www.cnblogs.com/sesshoumaru/category/894935.html 2个多月来,将3.5版本中的68个内置函数,按顺序逐个进行了自认为详细的解析,现在是时候进行个总结了。为了方便记忆,将这些内置函数进行了如下分类: 数学运算(7个) 类型转换(24个) 阅读全文

posted @ 2019-01-02 08:21 AI大道理 阅读(483) 评论(0) 推荐(0) 编辑

eval()
摘要:英文文档: This function can also be used to execute arbitrary code objects (such as those created by compile()). In this case pass a code object instead o 阅读全文

posted @ 2019-01-02 08:17 AI大道理 阅读(333) 评论(0) 推荐(0) 编辑

导航