03 2019 档案

摘要:转自:https://blog.csdn.net/u010412719/article/details/47089883 例如我们有a.py和b.py两个文件,当我们需要在b.py文件中应用a.py中的func( )函数时,应该如何做呢,有两种情况,分别为在同一文件目录下和不在同一目录下进行说明。 阅读全文
posted @ 2019-03-31 11:33 lypbendlf 阅读(293) 评论(0) 推荐(0)
摘要:转自:https://keras.io/backend/ At this time, Keras has three backend implementations available: the TensorFlow backend, the Theano backend, and the CNTK 阅读全文
posted @ 2019-03-31 11:29 lypbendlf 阅读(206) 评论(0) 推荐(0)
摘要:转自:https://blog.csdn.net/edogawachia/article/details/80043673 1.sigmoid 特点:可以解释,比如将0-1之间的取值解释成一个神经元的激活率(firing rate) 缺陷: 有饱和区域,是软饱和,在大的正数和负数作为输入的时候,梯度 阅读全文
posted @ 2019-03-31 10:39 lypbendlf 阅读(872) 评论(0) 推荐(0)
摘要:转自:https://blog.csdn.net/zouxy09/article/details/24971995 从这一篇中了解了: -》机器学习的目的就是为了拟合数据,不仅是训练数据集,更是测试集,使拟合误差最小,但可能出现过拟合,所以需要正则化; -》 正则化其中一条是使优化过程变得稳定快速, 阅读全文
posted @ 2019-03-31 10:15 lypbendlf 阅读(384) 评论(0) 推荐(0)
摘要:转自:https://wenku.baidu.com/view/11b07d293169a4517723a3f4.html 阅读全文
posted @ 2019-03-31 09:35 lypbendlf 阅读(2472) 评论(0) 推荐(0)
摘要:转自:https://www.tensorflow.org/api_docs/python/tf/train/GradientDescentOptimizer 1.tf.train.GradientDescentOptimizer 其中有函数: 1.1apply_gradients Apply gr 阅读全文
posted @ 2019-03-28 17:12 lypbendlf 阅读(474) 评论(0) 推荐(0)
摘要:转自:http://www.jianshu.com/p/fab82fa53e16 1.tf中的nce_loss的API 假设nce_loss之前的输入数据是K维的,一共有N个类,那么 weight.shape = (N, K) bias.shape = (N) inputs.shape = (bat 阅读全文
posted @ 2019-03-28 16:15 lypbendlf 阅读(727) 评论(0) 推荐(0)
摘要:转自:http://www.runoob.com/python/python-func-enumerate.html sequence -- 一个序列、迭代器或其他支持迭代对象。 start -- 下标起始位置。 for循环使用enumerate: //在for循环中会返回下标和对应的元素。 阅读全文
posted @ 2019-03-28 10:47 lypbendlf 阅读(162) 评论(0) 推荐(0)
摘要:转自:http://blog.sina.com.cn/s/blog_628033fa0100kjjy.html 1.常见误差计算方法: SSE(和方差、误差平方和):The sum of squares due to errorMSE(均方差、方差):Mean squared errorRMSE(均 阅读全文
posted @ 2019-03-27 20:38 lypbendlf 阅读(4546) 评论(0) 推荐(0)
摘要:转自:https://www.cnblogs.com/lhfcws/p/3197735.html https://blog.csdn.net/maqingli20/article/details/7063672 1.第二个链接中博文显示: 从结果可以看出,在大量连续输出信息到控制台的时候,程序效率受 阅读全文
posted @ 2019-03-27 20:02 lypbendlf 阅读(378) 评论(0) 推荐(0)
摘要:转自:http://www.runoob.com/python/python-func-zip.html 1.介绍 zip() 函数用于将可迭代的对象作为参数,将对象中对应的元素打包成一个个元组,然后返回由这些元组组成的列表。 如果各个迭代器的元素个数不一致,则返回列表长度与最短的对象相同,利用 * 阅读全文
posted @ 2019-03-27 12:28 lypbendlf 阅读(225) 评论(0) 推荐(0)
摘要:1.基础模型 将法语翻译为英语,分为编码和解码阶段,将一个序列变为另一个序列。即序列对序列模型。 从图中识别出物体的状态,将图片转换为文字。 先使用CNN处理图片,再使用RNN将其转换为语言描述。 2.选择最可能的句子 7.注意力模型直观理解 绿色部分是输入法语句子并记忆,在感知机中传递,紫色是解码 阅读全文
posted @ 2019-03-26 18:45 lypbendlf 阅读(483) 评论(0) 推荐(0)
摘要:转自:http://sofasofa.io/forum_main_post.php?postid=1002963 1.对于supervised learning,分布是指关于特征X和结果Y的联合分布F(X,Y)或者条件F(Y|X)。 我们说训练集和测试集服从同分布的意思是训练集和测试集都是由服从同一 阅读全文
posted @ 2019-03-26 15:57 lypbendlf 阅读(1595) 评论(4) 推荐(0)
摘要:转自:https://blog.csdn.net/l8947943/article/details/80328721 training set:训练集是用来训练模型的。遵循训练集大,开发,测试集小的特点,占了所有数据的绝大部分。 development set:用来对训练集训练出来的模型进行测试,通 阅读全文
posted @ 2019-03-25 21:45 lypbendlf 阅读(340) 评论(0) 推荐(0)
摘要:转自:https://blog.51cto.com/bella41981/2045108 1.概念 pyc文件是py文件编译后生成的字节码文件(byte code)。pyc文件经过python解释器最终会生成机器码运行。所以pyc文件是可以跨平台部署的,类似Java的.class文件。一般py文件改 阅读全文
posted @ 2019-03-25 20:02 lypbendlf 阅读(455) 评论(0) 推荐(0)
摘要:转自:https://blog.csdn.net/healthy_coder/article/details/50546384 https://blog.csdn.net/boyun58/article/details/77131489 1.查看已安装的包 在命令行下运行$ pydoc module 阅读全文
posted @ 2019-03-25 19:45 lypbendlf 阅读(235) 评论(0) 推荐(0)
摘要:转自:https://docs.pythontab.com/tensorflow/how_tos/variable_scope/ 这个讲的不错,能够更理解tf.get_Variable()了。创建时有name,并且前缀会有当前的scope名。 使用它创建变量时,会首先检测有没有出现过。没有显式sco 阅读全文
posted @ 2019-03-25 17:11 lypbendlf 阅读(208) 评论(0) 推荐(0)
摘要:转自:https://blog.csdn.net/UESTC_C2_403/article/details/72327321 1. tf.get_variable(name, shape, initializer): name就是变量的名称,shape是变量的维度,initializer是变量初始化 阅读全文
posted @ 2019-03-25 16:19 lypbendlf 阅读(190) 评论(0) 推荐(0)
摘要:转自:https://blog.csdn.net/abclhq2005/article/details/78683656 作者:abclhq2005 1.概念介绍 所谓dropout,就是指网络中每个单元在每次有数据流入时以一定的概率(keep prob)正常工作,否则输出0值。这是是一种有效的正则 阅读全文
posted @ 2019-03-25 15:36 lypbendlf 阅读(2666) 评论(0) 推荐(0)
摘要:1.为什么正则化可以减少过拟合? //答:可以让模型参数变小,减小模型的方差。 在损失函数中加入正则项,在正则化时,如果参数lamda设置得足够大,那么就相当于权重系数W接近于0 ,就会减少很多隐藏单元的影响,降低模型的复杂度,将模型从过拟合到欠拟合,当然,其中有一个lamda是使模型处于最优中间状 阅读全文
posted @ 2019-03-25 11:51 lypbendlf 阅读(529) 评论(0) 推荐(0)
摘要:转自:https://blog.csdn.net/aliceyangxi1987/article/details/77094970 https://blog.csdn.net/jojozhangju/article/details/51982254 1.为什么用双向 LSTM? 单向的 RNN,是根 阅读全文
posted @ 2019-03-25 08:55 lypbendlf 阅读(276) 评论(0) 推荐(0)
摘要:转自:https://blog.csdn.net/capecape/article/details/78390246 TensorFlow和theano以及Keras都是深度学习框架,TensorFlow和theano比较灵活,也比较难学,它们其实就是一个微分器 Keras其实就是TensorFlo 阅读全文
posted @ 2019-03-24 20:12 lypbendlf 阅读(617) 评论(0) 推荐(0)
摘要:转自:https://blog.csdn.net/sinat_26917383/article/details/55682996 阅读全文
posted @ 2019-03-24 20:03 lypbendlf 阅读(198) 评论(0) 推荐(0)
摘要:转自:https://cloud.tencent.com/developer/article/1091815 1. 分词(Word Cut) 英文:单词组成句子,单词之间由空格隔开 中文:字、词、句、段、篇 词:有意义的字组合 分词:将不同的词分隔开,将句子分解为词和标点符号 英文分词:根据空格 中 阅读全文
posted @ 2019-03-24 15:32 lypbendlf 阅读(1229) 评论(0) 推荐(0)
摘要:转自:http://www.coderjie.com/blog/43b3601e0a2411e7841d00163e0c0e36 1.块在内存中以树的形式存储,分好块的文本在文件中用IOB标记存储: I(inside,内部),O(outside,外部),B(begn,开始)。 如果一个单词被标记为B 阅读全文
posted @ 2019-03-24 15:06 lypbendlf 阅读(845) 评论(0) 推荐(0)
摘要:转自:https://blog.csdn.net/yyb19951015/article/details/79740869 //这个博客讲的挺不错的。 http://www.newlifeclan.com/ai/archives/170 1.实现中的问题 基本的LSTM细胞单元在TensorFlow 阅读全文
posted @ 2019-03-23 21:10 lypbendlf 阅读(6638) 评论(0) 推荐(0)
摘要:转自:深度学习中 number of training epochs 中的 epoch到底指什么? - 知乎 https://www.zhihu.com/question/43673341 1. (1)iteration:表示1次迭代(也叫training step),每次迭代更新1次网络结构的参数 阅读全文
posted @ 2019-03-23 19:21 lypbendlf 阅读(750) 评论(0) 推荐(0)
摘要:转自:https://www.cnblogs.com/gaofighting/p/9625868.html //里边有两个很好理解的例子。 tf.nn.embedding_lookup(params, ids):params可以是张量也可以是数组等,id就是对应的索引,其他的参数不介绍。 就是上图中 阅读全文
posted @ 2019-03-21 20:39 lypbendlf 阅读(153) 评论(0) 推荐(0)
摘要:转自:https://blog.csdn.net/qq_36098284/article/details/80621699 1.说明 int array[3][2][2] = {0,1,2,3,4,5,6,7};//相当于3个2 * 2 的二维数组printf("%d %d %d %d\n",&ar 阅读全文
posted @ 2019-03-21 20:15 lypbendlf 阅读(663) 评论(0) 推荐(0)
摘要:转自:https://blog.csdn.net/u012436149/article/details/78291545 阅读全文
posted @ 2019-03-21 13:46 lypbendlf 阅读(2300) 评论(0) 推荐(0)
摘要:转自:https://blog.csdn.net/dcrmg/article/details/79028003 https://blog.csdn.net/qian99/article/details/70500166 https://my.oschina.net/u/876354/blog/193 阅读全文
posted @ 2019-03-21 13:24 lypbendlf 阅读(980) 评论(0) 推荐(0)
摘要:转自:https://blog.csdn.net/autocyz/article/details/53149760 https://www.tensorflow.org/tutorials/representation/word2vec?hl=zh-cn 1.公式 //链接的博客里讲的很不错,当两个 阅读全文
posted @ 2019-03-20 11:48 lypbendlf 阅读(1322) 评论(0) 推荐(0)
摘要:转自:https://docs.scipy.org/doc/numpy-1.13.0/reference/routines.linalg.html 1.分解 //其中我觉得可以的就是svd奇异值分解吧,虽然并不知道数学原理 np.linalg.svd(a, full_matrices=1, comp 阅读全文
posted @ 2019-03-20 09:49 lypbendlf 阅读(277) 评论(0) 推荐(0)
摘要:1.使用词嵌入 给了一个命名实体识别的例子,如果两句分别是“orange farmer”和“apple farmer”,由于两种都是比较常见的,那么可以判断主语为人名。 但是如果是榴莲种植员可能就无法判断了,因为比较不常见。 此时使用 词嵌入,是一个训练好的模型,能够表示说,oragne和duria 阅读全文
posted @ 2019-03-18 21:15 lypbendlf 阅读(538) 评论(0) 推荐(0)
摘要:转自:https://blog.csdn.net/jiaoyangwm/article/details/79248535 1.eval() 其实就是tf.Tensor的Session.run() 的另外一种写法,但两者有差别: ※eval(): 将字符串string对象转化为有效的表达式参与求值运算 阅读全文
posted @ 2019-03-18 15:05 lypbendlf 阅读(294) 评论(0) 推荐(0)
摘要:转自:https://blog.csdn.net/red_stone1/article/details/80687921 2020-6-3更新———————— 1.指数特性 https://zhuanlan.zhihu.com/p/105722023 上图是y=e^x的图像,当x发生微小的变化的时候 阅读全文
posted @ 2019-03-15 20:55 lypbendlf 阅读(258) 评论(0) 推荐(0)
摘要:转自:https://blog.csdn.net/u012149181/article/details/78913167 1. numpy.random.rand() numpy.random.rand(d0,d1,…,dn) rand函数根据给定维度生成[0,1)之间的数据,包含0,不包含1 dn 阅读全文
posted @ 2019-03-15 11:25 lypbendlf 阅读(1035) 评论(0) 推荐(0)
摘要:1.为何选择序列模型? 给出上面一些序列数据的例子,真的很神奇,语音识别、音乐生成、情感分类、DNS序列分析、机器翻译、视频活动检测、命名实体识别。 2.数字符号 对于输入序列x,进行人名识别,输出中进行标识。其中T_x(i)表示第i个序列的长度,此处的例子=9. 如何表示单词,首先是有一个词典,假 阅读全文
posted @ 2019-03-06 19:20 lypbendlf 阅读(459) 评论(0) 推荐(0)
摘要:1.迁移学习 比如要训练一个放射科图片识别系统,但是图片非常少,那么可以先在有大量其他图片的训练集上进行训练,比如猫狗植物等的图片,这样训练好模型之后就可以转移到放射科图片上,模型已经从其他图片中学习到了低层的特征,可能会对当前训练系统产生帮助。但要保证其他图片的量很多。 对迁移的模型只要修改输出层 阅读全文
posted @ 2019-03-04 12:04 lypbendlf 阅读(585) 评论(0) 推荐(0)
摘要:转自:廖雪峰网站 1.map/reduce map()函数接收两个参数,一个是函数,一个是Iterable,map将传入的函数依次作用到序列的每个元素,并把结果作为新的Iterator返回。 举例说明,比如我们有一个函数f(x)=x2,要把这个函数作用在一个list [1, 2, 3, 4, 5, 阅读全文
posted @ 2019-03-01 16:12 lypbendlf 阅读(677) 评论(0) 推荐(0)