有多少人工,就有多少智能
上一页 1 ··· 19 20 21 22 23 24 25 26 27 ··· 32 下一页
摘要: Kaldi是当前最流行的开源语音识别工具(Toolkit),它使用WFST来实现解码算法。Kaldi的主要代码是C++编写,在此之上使用bash和python脚本做了一些工具. 语音识别,大体可分为“传统”识别方式与“端到端”识别方式,其主要差异就体现在声学模型上。 “传统”方式的声学模型一般采用隐 阅读全文
posted @ 2021-04-03 18:22 lvdongjie-avatarx 阅读(582) 评论(0) 推荐(0) 编辑
摘要: kaldi是什么 kaldi是一个用C++写的语音识别工具包。kaldi旨在供语音识别研究员使用。当然,kaldi也可以用作声纹识别。关于他的详细介绍可以访问kaldi的官方文档 kaldi与中文语音识别感谢很多大神与科研工作者在kaldi上开源了他们的数据集和训练模型,让我这样的小白可以站在巨人的 阅读全文
posted @ 2021-04-03 18:18 lvdongjie-avatarx 阅读(911) 评论(0) 推荐(0) 编辑
摘要: “Xavier”初始化方法是一种很有效的神经网络初始化方法,方法来源于2010年的一篇论文《Understanding the difficulty of training deep feedforward neural networks》,可惜直到近两年,这个方法才逐渐得到更多人的应用和认可。 为 阅读全文
posted @ 2021-04-01 21:15 lvdongjie-avatarx 阅读(941) 评论(0) 推荐(0) 编辑
摘要: TensorBoard是TensorFlow下的一个可视化的工具,能够帮助我们在训练大规模神经网络过程中出现的复杂且不好理解的运算。 TensorBoard能展示你训练过程中绘制的图像、网络结构等。 1.构建简单的TensorBoard日志输出 import tensorflow as tf inp 阅读全文
posted @ 2021-04-01 21:08 lvdongjie-avatarx 阅读(877) 评论(0) 推荐(0) 编辑
摘要: 模型文件的保存 tensorflow将模型保持到本地会生成4个文件: meta文件:保存了网络的图结构,包含变量、op、集合等信息 ckpt文件: 二进制文件,保存了网络中所有权重、偏置等变量数值,分为两个文件,一个是.data-00000-of-00001 文件,一个是 .index 文件 che 阅读全文
posted @ 2021-04-01 21:04 lvdongjie-avatarx 阅读(105) 评论(0) 推荐(0) 编辑
摘要: TFRecord生成 一、为什么使用TFRecord? 正常情况下我们训练文件夹经常会生成 train, test 或者val文件夹,这些文件夹内部往往会存着成千上万的图片或文本等文件,这些文件被散列存着,这样不仅占用磁盘空间,并且再被一个个读取的时候会非常慢,繁琐。占用大量内存空间(有的大型数据不 阅读全文
posted @ 2021-04-01 21:00 lvdongjie-avatarx 阅读(160) 评论(0) 推荐(0) 编辑
摘要: 应用场景 假如我们有一系列诉求是把图片识别成一个特定分类、比如 把图片分类成为猫、狗、狼等 把图片分类成为奔驰、宝马、奥迪 ... 几乎很少有人从头训练网络、复用只有训练的网络参数适应新的数据集、参考transfer-learning In practice, very few people tra 阅读全文
posted @ 2021-04-01 20:54 lvdongjie-avatarx 阅读(410) 评论(0) 推荐(0) 编辑
摘要: LeNet-5、AlexNet、ZFNet、VGGNet、GoogleNet、ResNet,ResNeXt,DenseNet,Shake Shake,SeNet,MobileNet,ShuffleNet,DarkNet LeNet:最早用于数字识别的CNN AlexNet:2012年ILSVRC比赛 阅读全文
posted @ 2021-04-01 07:12 lvdongjie-avatarx 阅读(455) 评论(0) 推荐(0) 编辑
摘要: 整个优化系列文章列表: Deep Learning 之 最优化方法 Deep Learning 最优化方法之SGD Deep Learning 最优化方法之Momentum(动量) Deep Learning 最优化方法之Nesterov(牛顿动量) Deep Learning 最优化方法之AdaG 阅读全文
posted @ 2021-03-27 15:57 lvdongjie-avatarx 阅读(272) 评论(0) 推荐(0) 编辑
摘要: 批归一化方法方法(Batch Normalization,BatchNorm)是由Ioffe和Szegedy于2015年提出的,已被广泛应用在深度学习中,其目的是对神经网络中间层的输出进行标准化处理,使得中间层的输出更加稳定。 通常我们会对神经网络的数据进行标准化处理,处理后的样本数据集满足均值为0 阅读全文
posted @ 2021-03-27 15:33 lvdongjie-avatarx 阅读(1318) 评论(0) 推荐(0) 编辑
上一页 1 ··· 19 20 21 22 23 24 25 26 27 ··· 32 下一页