上一页 1 ··· 6 7 8 9 10
摘要: yield真的是一个很神奇的东西啊 有yield的函数就像类一样 必须有 exampel = function_name() 然后调用next(example)或者example.__next__()来让程序运行到第一个yield处并返回yield后面的值 接着不停的调用这个函数让他运行到第二个yi 阅读全文
posted @ 2017-11-23 10:12 shensobaolibin 阅读(134) 评论(0) 推荐(0) 编辑
摘要: sigmoid(z): sigmoid(z)=1/(1+exp(-z)) z为通过神经网络对样本i的计算值 样本i的最终答案要么是0,要么是1 sigmoid的函数图像为 可以看到其值域为(0,1) sigmoid(z)表示这个样本为正样本的概率 在大部分情况下,我们的概率要么特别趋近与0,特别趋近 阅读全文
posted @ 2017-11-21 16:18 shensobaolibin 阅读(1021) 评论(0) 推荐(0) 编辑
摘要: 我们已有一个训练集,X,Y [x1, [y1, x2, y2, X= x3, Y= y3, . . xn] yn] xi=[xi1,xi2,xi3,.....xim] xi用来描述第i个样本 yi=0 or 1 yi用来描述第i个样本是正样本还是负样本 然后对于已有的 W=[w1,w2,....., 阅读全文
posted @ 2017-11-21 15:34 shensobaolibin 阅读(881) 评论(0) 推荐(0) 编辑
摘要: 我这里只写对监督学习的理解,因为只学到这嘛 神经网络有一个输入和一个输出 对于输入,比如我们输入一张图片 图片可以被抽象为3个矩阵,分别为R,G,B 我们可以将这三个矩阵变成一个超级长的列向量,方法就像你用一维数组表示二维数组一样 然后我们需要用神经网络去训练出一个行向量和一个数字b 得到一个数x= 阅读全文
posted @ 2017-11-18 11:07 shensobaolibin 阅读(369) 评论(0) 推荐(0) 编辑
摘要: 在网上看了吴恩达老师的慕课,现在来总结一下 神经网络: 由神经元组成的网络,这些神经元构成了一个完全图 神经元: 神经元有很多种,有线性的,有卷积的。 结合具体的例子来说一下,比如说图像识别吧 我把一张图像输入每一个神经元,然后每一个神经元对这个图像进行处理,然后输出一个预测值。 总有点仿生学的感觉 阅读全文
posted @ 2017-11-10 17:21 shensobaolibin 阅读(215) 评论(0) 推荐(0) 编辑
上一页 1 ··· 6 7 8 9 10