随笔分类 -  AI/ES

摘要:原文链接:何恺明团队提出 Focal Loss,目标检测精度高达39.1AP,打破现有记录 呀 加入Facebook的何凯明继续优化检测CNN网络,arXiv 上发现了何恺明所在 FAIR 团队的最新力作:“Foc... 阅读全文
posted @ 2017-08-21 22:26 wishchin 阅读(172) 评论(0) 推荐(0) 编辑
摘要:为AI做注解: AI已经出第三版,大的框架没有改变,DNN也没有引入AI这本书。第四版网络版应流出,不知道最终定版如何! 强化学习的方法有大幅度更新,但从策略系统更新范畴看来,没有什么实质的改变,只是规模的变更。 在一个算法工... 阅读全文
posted @ 2017-08-19 23:41 wishchin 阅读(255) 评论(0) 推荐(0) 编辑
摘要:前言: 文章:CNN的结构分析-------; 文章:历年ImageNet冠军模型网络结构解析-------; 文章:GoogleLeNet系列解读-------; 文章:DNN结构演进History—CNN-GoogLeNet :Going Deep... 阅读全文
posted @ 2017-07-24 16:55 wishchin 阅读(754) 评论(0) 推荐(0) 编辑
摘要:前言: 一个完备的模式识别系统,必然包含一个模式识别模型,此外还要附加一个评价模型,以及为了构建识别模型而构建的学习模型,并选择在学习模型中使用的学习方法。 表示(Representation) : 一个分类器必须用计算机可以处理的某种... 阅读全文
posted @ 2017-07-23 22:02 wishchin 阅读(639) 评论(0) 推荐(0) 编辑
摘要:终于找到ML日报的微信链接,抄之......................................请拜访原文链接:【谷歌机器翻译破世界纪录】仅用Attention模型,无需CNN和RNN。评价: NTM的成熟体DNC竟然达到了这种能力,不知道进... 阅读全文
posted @ 2017-06-14 20:07 wishchin 阅读(343) 评论(0) 推荐(0) 编辑
摘要:终于找到ML日报的微信链接,抄之......................................请拜访原文链接:【祖母论与还原论之争】为什么计算机人脸识别注定超越人类?评价: 从直觉上,总体视觉框架,我更推崇maar视觉理论,即还原论。因为对... 阅读全文
posted @ 2017-06-14 19:34 wishchin 阅读(525) 评论(0) 推荐(0) 编辑
摘要:来看看今日头条首席科学家的论文:End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF 使用LSTM方法进行序列标注,完成大规模标注问题参考此文:论文笔记:[ACL2016]End-to-end Se... 阅读全文
posted @ 2017-05-09 11:55 wishchin 阅读(254) 评论(0) 推荐(0) 编辑
摘要:深度学习为深度神经网络机器学习。07年最先引起注目的是DNN,在语音识别上有突出的表现;深度CNN在机器视觉领域的超常表现引领模式识别领域科学界和工业界的潮流,基于图像数据本身的二维结构天然适合CNN处理;RNN对时序和变长数据的处理优势促使语音识别和... 阅读全文
posted @ 2017-05-05 15:53 wishchin 阅读(155) 评论(0) 推荐(0) 编辑
摘要:在古老的CNN方法出现以后,并不能适用于图像中目标检测。20世纪60年代,Hubel和Wiesel( 百度百科 )在研究猫脑皮层中用于局部敏感和方向选择的神经元时发现其独特的网络结构可以有效地降低反馈神经网络的复杂性,继而提出了卷积神经网络(Convo... 阅读全文
posted @ 2017-03-22 13:05 wishchin 阅读(430) 评论(0) 推荐(0) 编辑
摘要:延陵季子2011年 8月27日 19:02 借鉴英文原文:Ripples in the Dirac Sea 当他试着用一种轻松的口吻诉说一些事情时,我会明白,其实我们都明白,在他的心里绝对不是平静,而是难以平复的涟漪。即使如波浪般翻滚的情绪,总是被他... 阅读全文
posted @ 2017-03-18 17:27 wishchin 阅读(643) 评论(0) 推荐(0) 编辑
摘要:刷个博客,转载自于科学网:AI.框架理论.语义网.语言间距.孤单一:引言:AI几乎是计算机科学家的梦想,自动化比计算机发展的要早的多。早期的自动化节省了大量人力,激发了人类懒惰的滋长和对自身进化缓慢的郁闷,有人希望自己创作的机器能够更智慧,可以省去自己动手操作的麻烦,... 阅读全文
posted @ 2017-03-18 17:09 wishchin 阅读(214) 评论(0) 推荐(0) 编辑
摘要:参考翻译,有大量删除和修改,如有异议,请拜访原文。一定要看英文原文!!!。 本文转载于:深度译文:机器学习那些事 英文【原题】A Few Useful Things to Know About Machine Lear... 阅读全文
posted @ 2016-12-14 10:08 wishchin 阅读(517) 评论(0) 推荐(1) 编辑
摘要:前言:DNC可以称为NTM的进一步发展,希望先看看这篇译文,关于NTM的译文:人工机器-NTM-Neutral Turing Machine基于神经网络的混合计算Hybrid computing using a neural network with dynamic ... 阅读全文
posted @ 2016-11-12 13:50 wishchin 阅读(565) 评论(0) 推荐(0) 编辑
摘要:前言:假设空间 在图像识别领域,灰度图像被称为传说中的2维张量,任意图像为由所有二类图像构成的这个二维张量空间内的一个点。由人类专家完成图像属性归纳,把二维张量空间图像的特征显式的归结为一维张量空间的n维向量上,被称为特征提取。一般提取的特征并不一定能在n... 阅读全文
posted @ 2016-10-22 16:21 wishchin 阅读(220) 评论(0) 推荐(0) 编辑
摘要:前言:假设空间 一个古老的哲学原理:世界并不是以小包的形式来到我们面前,除非遍历整个空间,任何训练得到的模型都是过拟合的。面对学习问题,首先面对这一个空间的认知问题,对空间结构的认识来自于接口,而全面的认识来自于遍历。 在认识一个未知空间之... 阅读全文
posted @ 2016-10-20 12:04 wishchin 阅读(189) 评论(0) 推荐(0) 编辑
摘要:前言: 机器学习在是否保留原始样本的层面划分为两类:参数学习和非参数学习。参数学习使用相对固定框架,把样本分布通过训练的方式回归到一个使用参数描述的数学模型里面,最终使用的是归纳方法;非参数模型保留了原始样本或者原始样本的其他空间转化形式,训练过程保留全... 阅读全文
posted @ 2016-10-19 17:37 wishchin 阅读(210) 评论(0) 推荐(0) 编辑
摘要:官网链接:http://mxnet.readthedocs.io/en/latest/tutorials/imagenet_full.htmlTraining Deep Net on 14 Million Images by Using A Single Machin... 阅读全文
posted @ 2016-07-21 19:24 wishchin 阅读(192) 评论(0) 推荐(0) 编辑
摘要:原文连接:http://www.techweb.com.cn/network/system/2016-01-27/2269274.shtml此文仅是一个小品文,详细理论请读论文,参考书籍。前言:我的概述 机器学习面对的是一个受限有穷空间 到 一个扩大的有... 阅读全文
posted @ 2016-07-12 17:37 wishchin 阅读(280) 评论(0) 推荐(0) 编辑
摘要:caffe是很优秀的dl平台。影响了后面很多相关框架。 cxxnet借鉴了很多caffe的思想。相比之下,cxxnet在实现上更加干净,例如依赖很少,通过mshadow的模板化使得gpu和cpu代码只用写一份,分布式接口也很干净。CXXNET... 阅读全文
posted @ 2016-07-08 11:05 wishchin 阅读(295) 评论(0) 推荐(0) 编辑
摘要:1、塔奇克马塔奇克马研究起来哲学,被缴械.......2、机器人瓦力孤独等待EVA的瓦力3.马文http://www.guokr.com/post/683881/ 阅读全文
posted @ 2016-06-06 13:30 wishchin 阅读(131) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示