01 2018 档案

摘要:机器学习的发展可以追溯到1959年,有着丰富的历史。这个领域也正在以前所未有的速度进化。在之前的一篇文章中,我们讨论过为什么通用人工智能领域即将要爆发。有兴趣入坑ML的小伙伴不要拖延了,时不我待! 在今年秋季开始准备博士项目的时候,我已经精选了一些有关机器学习和NLP... 阅读全文
posted @ 2018-01-30 15:25 曾先森在努力 阅读(379) 评论(0) 推荐(0)
摘要:SGD此处的SGD指mini-batch gradient descent,关于batch gradient descent, stochastic gradient descent, 以及 mini-batch gradient descent的具体区别就不细说了。... 阅读全文
posted @ 2018-01-29 16:41 曾先森在努力 阅读(836) 评论(0) 推荐(0)
摘要:CS231n简介CS231n的全称是CS231n: Convolutional Neural Networks for Visual Recognition,即面向视觉识别的卷积神经网络。该课程是斯坦福大学计算机视觉实验室推出的课程。需要注意的是,目前大家说CS231... 阅读全文
posted @ 2018-01-22 11:36 曾先森在努力 阅读(268) 评论(0) 推荐(0)
摘要:机器学习(深度学习)通用工作流程 Deep Learning with Python 4.5节1. 定义问题并装载数据集(Defining the problem and assembling a dataset)首先,你必须定义你手头的问题:输入数据是什么?你希望预... 阅读全文
posted @ 2018-01-19 15:54 曾先森在努力 阅读(451) 评论(0) 推荐(0)
摘要:机器学习工程师自学指南 本文将会介绍机器学习的方方面面,从简单的线性回归到最新的神经网络,你不仅仅能学会如何使用它们,并且还能从零进行构建。 以下内容以计算机视觉为导向,这是学习一般知识的最快方法,并且你从中获得的经验可以很容易地迁移到机器学习的其他领... 阅读全文
posted @ 2018-01-14 20:10 曾先森在努力 阅读(474) 评论(0) 推荐(0)
摘要:【1】Andrew NG Deep Learning.ai http://deeplearning.ai/网易云课堂(中文字幕):http://mooc.study.163.com/smartSpec/detail/1001319001.htm推荐理由:Andrew ... 阅读全文
posted @ 2018-01-08 15:06 曾先森在努力 阅读(386) 评论(0) 推荐(0)
摘要:交叉熵的作用通过神经网络解决多分类问题时,最常用的一种方式就是在最后一层设置n个输出节点,无论在浅层神经网络还是在CNN中都是如此,比如,在AlexNet中最后的输出层有1000个节点: 而即便是ResNet取消了全连接层,也会在最后有一个1000个节点的输出层: 一... 阅读全文
posted @ 2018-01-02 15:11 曾先森在努力 阅读(1019) 评论(0) 推荐(0)
摘要:一. 二次代价函数的不足对于大多数人来说,犯错是一件让人很不开心的事情。但反过来想,犯错可以让我们意识到自己的不足,然后我们很快就学会下次不能再犯错了。犯的错越多,我们学习进步就越快。同样的,在神经网络训练当中,当神经网络的输出与标签不一样时,也就是神经网络预测错了,... 阅读全文
posted @ 2018-01-02 14:38 曾先森在努力 阅读(692) 评论(0) 推荐(0)
摘要:docker运行在一个独立的隔离的进程中。当用户执行dockerrun,它将启动一个有着独立的文件系统,独立的网络和独立的进程树的进程。基本的docker run命令的格式:docker run [OPTIONS] IMAGE[:TAG] [COMMAND] [AR... 阅读全文
posted @ 2018-01-02 14:28 曾先森在努力 阅读(1063) 评论(0) 推荐(0)