摘要: python画散点图 和直线 tf.matmul 和 tf.multiply都能用错.. 归一化 知道归一化可以提高训练的效率, 但是不知道如果不归一化,训练速度和训练效果会差这么多 tf.random_normal([2, 1])*0.01和tf.zeros([1, 1]) 初始化的值大小很重要, 阅读全文
posted @ 2017-07-24 15:44 烧鸭饭真好吃 阅读(104) 评论(0) 推荐(0) 编辑
摘要: mean() 平均数 double() 保留4位小数 p = round(sigmoid(X * theta)) 写了一大堆,人家一句话就做完了, 矩阵思想,element-wise思想 initial_theta = zeros(n + 1, 1); 权重theta加了一列0, X加了一列1,这样 阅读全文
posted @ 2017-07-24 14:27 烧鸭饭真好吃 阅读(132) 评论(0) 推荐(0) 编辑
摘要: cost function的表达式 batch gradient descent 1.**simultaneously update all theta** 2.每次都使用 所有都数据 Update equation的表达式, 就是求导之后的 这里,, X0 = 1 Intercept term ( 阅读全文
posted @ 2017-07-18 18:20 烧鸭饭真好吃 阅读(229) 评论(0) 推荐(0) 编辑
摘要: Cost = tf.reduce_mean(tf.reduce_sum(tf.square(pY - Hypothesis),reduction_indices=[1])) #reduction_indices是指沿tensor的哪些维度求和 因为矩阵乘法之后不是一个数字,是一个多层数组 所以要用r 阅读全文
posted @ 2017-07-09 10:23 烧鸭饭真好吃 阅读(183) 评论(0) 推荐(0) 编辑
摘要: 为什么要使用Back Propagation? 上模型,直接走到 Forward Propagation 的部分:j 表示当前层的神经元数量, k 表示上一层神经元的数量,大括号是激活函数, 下一步,我们要训练神经网络,对每个神经元对参数w、b进行微调,让预测结果更接近真实值,怎么对w和b进行微调? 阅读全文
posted @ 2017-07-06 17:48 烧鸭饭真好吃 阅读(395) 评论(0) 推荐(0) 编辑