摘要: 损失函数为cross entropy, y是预测值,one-hot向量, 激活函数为softmax, 求函数关于输入向量theta的导数,结果很简单,可以直接记住: 因为是输入向量,多输入元素求偏导的过程中,需要考虑两种情况 然后log开导,自然底数和log抵消调,然后就得到两种情况的两种导数公式 阅读全文
posted @ 2018-09-13 16:00 烧鸭饭真好吃 阅读(132) 评论(0) 推荐(0) 编辑
摘要: softmax是向量函数,输入向量并输出另一个向量, “对softmax求导”,到底是在对什么求导? 对向量函数求导 得到的是一个矩阵: (不要在意字母的含义) 因为有多个输出,要明确的是:计算哪个输出元素的导数? 以及,由于softmax具有多个输入,所以也要明确:计算它(这个输出元素)关于哪个输 阅读全文
posted @ 2018-09-13 10:28 烧鸭饭真好吃 阅读(177) 评论(0) 推荐(0) 编辑
摘要: 帮女朋友做的小程序 在线使用地址 预览: 也可以下载网页离线使用 阅读全文
posted @ 2017-10-27 18:27 烧鸭饭真好吃 阅读(3542) 评论(0) 推荐(0) 编辑
摘要: 生活就是 两个外卖小哥,在楼下小店, 点一瓶酒,吃几份小吃,聊聊生活的琐事, 时而眉头紧锁,但是看得出谈得很畅快 就像我打开易拉罐的拉环时,咯兹的声音, 是平淡 、细碎 、感动 ,满足和快乐 也许生活就是这样, 而不是听到某个,总是不满足 、不满意的声音说,谁谁谁又怎么样了。 这个声音可能是我自己, 阅读全文
posted @ 2017-10-17 14:57 烧鸭饭真好吃 阅读(137) 评论(0) 推荐(0) 编辑
摘要: 东西放哪里 知识放哪里 房间的收拾,能反应一个人的思维能力 反应了大脑如何对事物进行 分类、分级 当我不收拾房间的时候,思维也是僵化的, 没有出现创新的思想,无论是哪个层面 房间的摆放, 不用的东西,不用的知识,占用了大脑的记忆资源, 常用的东西,高频的东西,却湮灭在这些没用的东西里面, 每时每刻都 阅读全文
posted @ 2017-10-14 17:52 烧鸭饭真好吃 阅读(159) 评论(0) 推荐(0) 编辑
摘要: 求grad有两种方式 一种是用 微积分的方式(calculus-based) 来求出grad, 另一种是使用数值的方式来估计grad (numerically approximating),即 中心差分公式(centered difference formula) [centered differe 阅读全文
posted @ 2017-09-28 10:21 烧鸭饭真好吃 阅读(273) 评论(0) 推荐(0) 编辑
摘要: 一次进步一点点,滴水穿石头...估计我也老了 密集连接层 就是摊平,reshape 然后加上一层w, b , so easy 卷积操作 先写个定义w和b的函数 卷积是已经包装好的函数,只需要传入x和w就可以自动卷了 第二层卷积层承接的是第一层的数量 如果第一层的shape是[5,5,1,32] , 阅读全文
posted @ 2017-07-30 10:31 烧鸭饭真好吃 阅读(126) 评论(0) 推荐(0) 编辑
摘要: 计算accuracy的代码 # 计算准确率,是拿输出的结果比对一下corre_boolean = tf.equal(tf.argmax(hyp,1),tf.argmax(py,1))accu = tf.reduce_mean(tf.cast(corre_boolean,'float'))print( 阅读全文
posted @ 2017-07-29 11:05 烧鸭饭真好吃 阅读(199) 评论(0) 推荐(0) 编辑
摘要: 下一步plotData一大堆复杂逻辑 太复杂我放弃 matlab选择列的方法 阅读全文
posted @ 2017-07-28 18:21 烧鸭饭真好吃 阅读(193) 评论(0) 推荐(0) 编辑
摘要: 归一化:对原始数据进行线性变换把数据映射到[0,1]之间 标准化:均值为0,标准差为1 One disadvantage of normalization over standardization is that it loses some information in the data, espe 阅读全文
posted @ 2017-07-25 22:31 烧鸭饭真好吃 阅读(3624) 评论(0) 推荐(0) 编辑