随笔分类 -  深度学习

caffe 机器学习
摘要:转自:http://blog.csdn.net/revolver/article/details/50177219 今年上半年(2015年2月),Google在Nature上发表了一篇论文:Human-level control through deep reinforcement learning 阅读全文
posted @ 2017-04-24 11:10 QQLQ 阅读(513) 评论(0) 推荐(0) 编辑
摘要:编者按:本文作者王川,投资人,中科大少年班校友,现居加州硅谷,个人微信号9935070,36 氪经授权转载自其个人微信公众号 investguru。 一 2016 年一月底,人工智能的研究领域,发生了两件大事。 先是一月二十四号,MIT 的教授,人工智能研究的先驱者,Marvin Minsky 去世 阅读全文
posted @ 2016-12-05 09:50 QQLQ 阅读(529) 评论(0) 推荐(0) 编辑
摘要:编者注:深度学习火了,从任何意义上,大家谈论它的热衷程度,都超乎想象。但是,似乎很少有人提出不同的声音,说深度学习的火热,有可能是过度的繁荣,乃至不理性的盲从。而这次,有不同的想法出现了。 本篇文章来自依图科技 CEO Leo的投稿,依图科技是一家专注研究CV(Computer Vison,计算机视 阅读全文
posted @ 2016-12-05 09:49 QQLQ 阅读(363) 评论(0) 推荐(0) 编辑
摘要:转自:http://www.blogjava.net/zhenandaci/archive/2009/02/13/254519.html 按:之前的文章重新汇编一下,修改了一些错误和不当的说法,一起复习,然后继续SVM之旅. (一)SVM的八股简介 支持向量机(Support Vector Mach 阅读全文
posted @ 2016-12-02 19:36 QQLQ 阅读(191) 评论(0) 推荐(0) 编辑
摘要:当数据一层一层通过更多的卷积层时,你可以得到的特征图像代表的特征就会更加的复杂。 在网络的最后,你也许可以得到一个抽象的物体。如果你想通过可视化方法在卷积神经网络中看到更多的信息。这里有一个工具方便你查看https://github.com/yosinski/deep-visualization-t 阅读全文
posted @ 2016-11-30 16:48 QQLQ 阅读(587) 评论(0) 推荐(0) 编辑
摘要:转自:http://blog.csdn.net/shuzfan/article/details/51460895 Loss Function softmax_loss的计算包含2步: (1)计算softmax归一化概率 (2)计算损失 这里以batchsize=1的2分类为例: 设最后一层的输出为[ 阅读全文
posted @ 2016-11-30 10:02 QQLQ 阅读(3275) 评论(1) 推荐(0) 编辑
摘要:转自:http://blog.csdn.net/han_xiaoyang/article/details/50542880 作者:寒小阳 时间:2016年1月。 出处:http://blog.csdn.net/han_xiaoyang/article/details/50542880 声明:版权所有 阅读全文
posted @ 2016-11-30 10:00 QQLQ 阅读(638) 评论(0) 推荐(0) 编辑
摘要:前言 开始本文内容之前,我们先来看一下上边左侧的这张图,从图中你看到了什么物体?他们在什么位置?这还不简单,图中有一个猫和一个人,具体的位置就是上图右侧图像两个边框(bounding-box)所在的位置。其实刚刚的这个过程就是目标检测,目标检测就是“给定一张图像或者视频帧,找出其中所有目标的位置,并 阅读全文
posted @ 2016-08-08 17:57 QQLQ 阅读(2677) 评论(1) 推荐(3) 编辑
摘要:深度学习大讲堂致力于推送人工智能,深度学习方面的最新技术,产品以及活动。请关注我们的知乎专栏! 卷积神经网络(CNN):图像级语义理解的利器 自2012年AlexNet提出并刷新了当年ImageNet物体分类竞赛的世界纪录以来,CNN在物体分类、人脸识别、图像检索等方面已经取得了令人瞩目的成就。通常 阅读全文
posted @ 2016-08-08 17:09 QQLQ 阅读(1926) 评论(0) 推荐(0) 编辑
摘要:作者:果果是枚开心果链接:https://zhuanlan.zhihu.com/p/20895858来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 谈吐风生,援笔立成 ——生成式模型 选录 翻译:尹肖贻 校对:孙月杰 机器学习之中,以产生(/生成)式模型最为波云诡谲, 阅读全文
posted @ 2016-08-08 15:51 QQLQ 阅读(947) 评论(0) 推荐(0) 编辑
摘要:Caffe应该是目前深度学习领域应用最广泛的几大框架之一了,尤其是视觉领域。绝大多数用Caffe的人,应该用的都是基于分类的网络,但有的时候也许会有基于回归的视觉应用的需要,查了一下Caffe官网,还真没有很现成的例子。这篇举个简单的小例子说明一下如何用Caffe和卷积神经网络(CNN: Convo 阅读全文
posted @ 2016-07-04 20:20 QQLQ 阅读(1727) 评论(0) 推荐(0) 编辑
摘要:神经网络中,我们通过最小化神经网络来训练网络,所以在训练时最后一层是损失函数层(LOSS), 在测试时我们通过准确率来评价该网络的优劣,因此最后一层是准确率层(ACCURACY)。 但是当我们真正要使用训练好的数据时,我们需要的是网络给我们输入结果,对于分类问题,我们需要获得分类结果,如下右图最后一 阅读全文
posted @ 2016-07-04 16:48 QQLQ 阅读(730) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示