上一页 1 ··· 18 19 20 21 22 23 24 25 26 ··· 50 下一页
摘要: 学的太浅,先放一个别人写的吧,等自己摸清楚回来搞搞。 https://blog.csdn.net/cham_3/article/details/72141753 阅读全文
posted @ 2018-05-09 18:51 猪突猛进!!! 阅读(290) 评论(0) 推荐(0) 编辑
摘要: 转自:https://blog.csdn.net/wjmishuai/article/details/50890214 刚开始摸caffe,找了个比较清楚的模型。 input: "data" input_dim: 60 // number of pictureinput_dim: 1 // chan 阅读全文
posted @ 2018-05-09 18:47 猪突猛进!!! 阅读(1481) 评论(0) 推荐(0) 编辑
摘要: 转自https://blog.csdn.net/shuzfan/article/details/51460895。 Loss Function softmax_loss的计算包含2步: (1)计算softmax归一化概率 (2)计算损失 这里以batchsize=1的2分类为例: 设最后一层的输出为 阅读全文
posted @ 2018-05-09 18:47 猪突猛进!!! 阅读(2098) 评论(0) 推荐(0) 编辑
摘要: 先简单理解一下卷积这个东西。 (以下转自https://blog.csdn.net/bitcarmanlee/article/details/54729807 知乎是个好东西) 1.知乎上排名最高的解释 首先选取知乎上对卷积物理意义解答排名最靠前的回答。 不推荐用“反转/翻转/反褶/对称”等解释卷积 阅读全文
posted @ 2018-05-07 17:17 猪突猛进!!! 阅读(1417) 评论(0) 推荐(0) 编辑
摘要: 搞卷积神经网络的时候突然发现自己不清楚神经网络怎么训练了,满脸黑线,借此机会复习一下把。 首先放一位知乎大佬的解释。https://www.zhihu.com/question/27239198?rf=24827633 链式法则大一的时候高数就学会了,不过如果直接利用链式法则的化冗余的计算可是发杂的 阅读全文
posted @ 2018-05-07 14:49 猪突猛进!!! 阅读(111) 评论(0) 推荐(0) 编辑
摘要: C. Valhalla Siege time limit per test 2 seconds memory limit per test 256 megabytes input standard input output standard output Ivar the Boneless is a 阅读全文
posted @ 2018-05-06 16:25 猪突猛进!!! 阅读(228) 评论(0) 推荐(0) 编辑
摘要: 脑子锈咯,看了题解才理出来。 这里提到的希望n-1个点的距离都一致,为了让加的点尽可能的小,这个距离其实就是这n-2个距离值的公共gcd的最大值。(公共的gcd,对应多个值的最大共同部分,) 这里处理完之后就是利用gcd的前后缀处理一下挖去一个点的之后的区间gcd 阅读全文
posted @ 2018-03-27 16:14 猪突猛进!!! 阅读(179) 评论(0) 推荐(0) 编辑
摘要: 加了一些花的最短路,点的个数为500不需要堆优化,改一下dij的判断条件就可以了。 上代码: 阅读全文
posted @ 2018-03-14 15:16 猪突猛进!!! 阅读(315) 评论(0) 推荐(0) 编辑
摘要: 并查集,方法很多,提供一个简单的思路。 (多找找一一对应的关系) 代码: 阅读全文
posted @ 2018-03-07 17:21 猪突猛进!!! 阅读(144) 评论(0) 推荐(0) 编辑
摘要: 题解:我们假设有一段很长的由1组成的序列,such as ”1111111111111111111....“,然后我们模拟除法,当第一次出现余数为0的时候,就是我们要的最小值解 代码: 阅读全文
posted @ 2018-03-07 16:23 猪突猛进!!! 阅读(138) 评论(0) 推荐(0) 编辑
上一页 1 ··· 18 19 20 21 22 23 24 25 26 ··· 50 下一页