摘要: 微博上经常有同学分享一些公开课资源,包括可下载的网盘资源,课件资源等等,但是时间长了就忘了在哪里了。另外Coursera官方也推荐一些第三方批量下载工具,大家下载课程后也可以考虑共享到网盘里,减轻Coursera官方的下载压力。这里计划做一个汇总,包括一些佚名的来自网络上的课程资源分享,也欢迎大家提 阅读全文
posted @ 2016-06-15 09:50 十点 阅读(1203) 评论(0) 推荐(0) 编辑
摘要: 上周三收到Coursera平台的群发邮件,大意是Coursera将在6月30号彻底关闭旧的课程平台,全面升级到新的课程平台上,一些旧的课程资源(课程视频、课程资料)将不再保存,如果你之前学习过相关的课程,或者有心仪的课程,Coursera建议你将这些课程资源下载下来备份。 说实话,自从Courser 阅读全文
posted @ 2016-06-15 09:48 十点 阅读(817) 评论(0) 推荐(0) 编辑
摘要: 看了这些程序员的分享,你会大涨姿势滴! Guru S(IT自由职业者, 软件和web开发者,平面和网页设计师) 这才是我在 Quora 期待遇见的问题嘛! 我就从最有趣的开始说吧:我创建过一个批处理文件,每当我登陆自己的计算机超过 10 分钟还没有手工解除这个批处理文件的执行的话,它就会删光硬盘上所 阅读全文
posted @ 2016-06-13 17:09 十点 阅读(503) 评论(0) 推荐(0) 编辑
摘要: 朴素贝叶斯 参考[1] 事件A和B同时发生的概率为在A发生的情况下发生B或者在B发生的情况下发生AP(A∩B)=P(A)∗P(B|A)=P(B)∗P(A|B) 所以有:P(A|B)=P(B|A)∗P(A)P(B) 对于给出的待分类项,求解在此项出现的条件下各个目标类别出现的概率,哪个最大,就认为此待 阅读全文
posted @ 2016-06-13 09:50 十点 阅读(692) 评论(0) 推荐(0) 编辑
摘要: 提点了一下贝叶斯的基础理论,后面还给出了几个典型的实验,介绍的内容是比较基础的。介绍的重点在朴素贝叶斯,对于贝叶斯网络没有深入解释。 有需要的可以参考下。点我下载, 阅读全文
posted @ 2016-06-05 10:27 十点 阅读(161) 评论(0) 推荐(0) 编辑
摘要: 其实这是老板让上交的一份总结,贴出来,欢迎朋友们批评指正。 最近看了一部分关于NLP的几篇论文,其中大部分为神经网络实现, 从基本的HMM算法实现,到LSTM实现,有很多方法可以用来处理NLP任务中的阅读、QA或者记忆功能。另外,Facebook给出了20个NLP任务,也有一些公认的测试数据集。目前 阅读全文
posted @ 2016-05-30 19:37 十点 阅读(519) 评论(0) 推荐(0) 编辑
摘要: 翻译网上的哈,我觉得有很大一部分从没看到过,所以就翻译了下,如有不对的地方,欢迎指正: 1:准备数据:务必保证有大量、高质量并且带有干净标签的数据,没有如此的数据,学习是不可能的 2:预处理:这个不多说,就是0均值和1方差化 3:minibatch:建议值128,1最好,但是效率不高,但是千万不要用 阅读全文
posted @ 2016-05-24 21:07 十点 阅读(1078) 评论(0) 推荐(0) 编辑
摘要: 这只是老师安排的一个实验,准备过程中遇到各种问题,现在贴出来供大家参考,是Andrew Ng参与的研究, 论文依据如下,第二篇是一篇相关的论文, Learning Feature Representations with K-means, Adam Coates and Andrew Y. Ng. 阅读全文
posted @ 2016-05-16 16:32 十点 阅读(1124) 评论(0) 推荐(0) 编辑
摘要: 因为本人数学水平比较差劲,所以看东西要求通俗易懂,下面记录的资源都是自己觉得讲解的比较容易理解的,供大家参考,同时也为自己回头复习, 1、细说卷积神经网络 2、循环神经网络(RNN, Recurrent Neural Networks)介绍 3、A list of popular github pr 阅读全文
posted @ 2016-05-12 14:49 十点 阅读(172) 评论(0) 推荐(1) 编辑
摘要: 你想进什么公司,和你读什么计算机方向,关系不是很大。只要是理工科的学生,面对技术岗位,其实机会是差不多的。 至于你想什么职位,那显然和你的专业/方向关系较大,比如说很多大数据职位,就明确表示要求你DM/ML/NLP/IR背景,但是这也只是说这些 学生可能更有优势些,事实上,数学和统计学出身的,很多搞 阅读全文
posted @ 2016-05-11 17:15 十点 阅读(181) 评论(0) 推荐(0) 编辑