摘要: 斯坦福大学机器学习斯坦福大学机器学习第十课“神经网络的学习(Neural Networks: Learning)”学习笔记,本次课程主要包括7部分:1) Deciding what to try next(决定下一步该如何做)2) Evaluating a hypothesis(评估假设)3) Model selection and training/validation/test sets(模型选择和训练/验证/测试集)4) Diagnosing bias vs. variance(诊断偏差和方差)5) Regularization and bias/variance(正则化和偏差/方差)6 阅读全文
posted @ 2013-01-04 22:09 renly2013 阅读(313) 评论(0) 推荐(0) 编辑
摘要: 斯坦福大学机器学习斯坦福大学机器学习第九课“神经网络的学习(Neural Networks: Learning)”学习笔记,本次课程主要包括8部分:1) Cost function(代价函数)2) Backpropagation algorithm(BP算法 or 反向传播算法)3) Backpropagation intuition(BP算法的直观解释)4) Implementation note: Unrolling parameters(实现时的注意点:展开参数)5) Gradient checking(梯度下降算法的验证)6) Random initialization(随机初始化)7 阅读全文
posted @ 2013-01-04 22:06 renly2013 阅读(500) 评论(0) 推荐(0) 编辑
摘要: 斯坦福大学机器学习第七课"正则化“学习笔记,本次课程主要包括4部分:1)The Problem of Overfitting(过拟合问题)2) Cost Function(成本函数)3) Regularized Linear Regression(线性回归的正则化)4) Regularized Logistic Regression(逻辑回归的正则化)以下是每一部分的详细解读。1)The Problem of Overfitting(过拟合问题)拟合问题举例-线性回归之房价问题:a) 欠拟合(underfit, 也称High-bias)b) 合适的拟合:c) 过拟合(overfit, 阅读全文
posted @ 2013-01-04 22:02 renly2013 阅读(668) 评论(0) 推荐(0) 编辑
摘要: 斯坦福大学机器学习第六课"逻辑回归“学习笔记,本次课程主要包括7部分:1) Classification(分类)2) Hypothesis Representation3) Decision boundary(决策边界)4) Cost function(代价函数,成本函数)5) Simplified cost function and gradient descent(简化版代价函数及梯度下降算法)6) Advanced optimization(其他优化算法)7) Multi-class classification: One-vs-all(多类分类问题)以下是每一部分的详细解读。 阅读全文
posted @ 2013-01-04 22:00 renly2013 阅读(651) 评论(0) 推荐(0) 编辑
摘要: 斯坦福大学机器学习第四课"多变量线性回归“学习笔记,本次课程主要包括7部分:1) Multiple features(多维特征)2) Gradient descent for multiple variables(梯度下降在多变量线性回归中的应用)3) Gradient descent in practice I: Feature Scaling(梯度下降实践1:特征归一化)4) Gradient descent in practice II: Learning rate(梯度下降实践2:步长的选择)5) Features and polynomial regression(特征及多 阅读全文
posted @ 2013-01-04 21:58 renly2013 阅读(404) 评论(0) 推荐(0) 编辑
摘要: 本课的课件资料:PPTPDF1) Multiple features(多维特征)2) Gradient descent for multiple variables(梯度下降在多变量线性回归中的应用)3) Gradient descent in practice I: Feature Scaling(梯度下降实践1:特征归一化)4) Gradient descent in practice II: Learning rate(梯度下降实践2:步长的选择)5) Features and polynomial regression(特征及多项式回归)6) Normal equation(正规方程- 阅读全文
posted @ 2013-01-04 21:55 renly2013 阅读(212) 评论(0) 推荐(0) 编辑
摘要: Cousera斯坦福机器学习公开课网址:https://class.coursera.org/ml本课的笔记之一:线性代数的学习及相关资源本课的课件资料:PPTPDF1) 矩阵和向量(Matrices and Vectors)2)加法和标量乘法(Addition and Scalar Multiplication)3) 矩阵与向量相乘(Matrix Vector Multiplication)4) 矩阵与矩阵相乘(Matrix Matrix Multiplication)5)矩阵乘法性质(Matrix Multiplication Properties)6)逆和转置(Inverse and T 阅读全文
posted @ 2013-01-04 21:53 renly2013 阅读(293) 评论(0) 推荐(0) 编辑
摘要: 斯坦福大学机器学习第二课"单变量线性回归“学习笔记,本次课程主要包括7部分:1) Model representation(模型表示)2) Cost function(代价函数,成本函数)3) Cost function intuition I(直观解释1)4) Cost function intuition II(直观解释2)5) Gradient descent(梯度下降)6) Gradient descent intuition(梯度下降直观解释)7) Gradient descent for linear regression(应用于线性回归的的梯度下降算法)以下是第二课“单 阅读全文
posted @ 2013-01-04 21:48 renly2013 阅读(303) 评论(0) 推荐(1) 编辑
摘要: 这几天关于"Google的猫脸识别"的新闻很多,个人觉得比较简洁的是奇客资讯上的这一条:Google研究员用千台电脑识别“猫”Google研究人员利用一千台电脑的1.6万核处理器组建了一个机器学习神经网络,网络包含超过10亿条链接。他们用从YouTube视频中提取出的1000万幅200x200缩略图训练神经网络,目的是寻找和识别猫”。 神经网络利用无指导的机器学习去识别图像特征。领导这项研究的斯坦福大学计算机科学教授Andrew Y. Ng说,“不是让一组研究人员试图找出如何描边,而是丢给算法一堆数据,让数据说话,让软件从数据中自动学习。”Google开发者Jeff Dea 阅读全文
posted @ 2013-01-04 21:38 renly2013 阅读(601) 评论(0) 推荐(0) 编辑
摘要: 之前有同学对于如何流畅的观看国外的公开课(特别是coursera, udacity)提出了疑问,我的建议是对于Coursera,能注册就注册,注册后就可以直接下载视频了。不过如果课程万一错过了注册怎么办?对于coursera,一个是preview直接观看在线视频,另外一个就是等了,看看国内有没有好心同学做下载种子或者上传到国内的视频网站。Coursera上斯坦福大学的机器学习公开课由Andrew Ng教授授课,应该是目前为止最好的机器学习入门课程了:面向初级用户,对数学的要求不高,讲解的浅显易懂。这门课程的视频已经由好心同学@小马哥07DM上传到Youku了,以下是这门课程的第一课引言的视频, 阅读全文
posted @ 2013-01-04 21:34 renly2013 阅读(264) 评论(0) 推荐(0) 编辑
摘要: Max Tian2010-07-152116简介华尔街从来不会吸取教训。这方面机器可能比人还要强。越来越多的投资者寄希望于人工智能帮助他们作出新的投资决策 。Rebellion 研究机构是一家由四个年轻的数学天才创建的对冲基金。被他们用于投资决策的技术是“计算机学习”,系人工智能的一个分支。该机构20岁出头的四大掌门解读了计算机程序作出战略决策的过程。在人工智能系统中,程序员不会让计算机对特定的输入作出反应,而是让系统从决策中不断学习和改进。很多试过这种方法的投资者都在使用“机器学习”,这是人工智能的一个分支,通过该技术,计算机会分析大量数据,从而对未来作出预测。这种技术被高科技公司谷歌用于搜 阅读全文
posted @ 2013-01-04 21:09 renly2013 阅读(403) 评论(0) 推荐(0) 编辑
摘要: 7603阅读31赞12评论打开文章名片译者:Chaucer在中国海边的飞利浦电子工厂中,数以百计的工人使用特制的工具手工装配电动剃须刀,这是老式的办法。在荷兰乡村同样的一所工厂中,128台机器臂以瑜伽一般的灵活度做着相同的工作。这些带摄像头的机器臂的技艺远超最灵巧的工匠。其中的一台机器臂可以无休止地将两根连接线折出三个完美的弯,然后将它们穿过肉眼几乎不可见的小洞。这些机械臂的工作速度快到必须安放在封闭的玻璃罩里以免看护者受伤。它们不需要休息,每天三班,每年365天。这家工厂每班总共也只有几打的员工,员工数量仅仅只是中国珠海工厂的十二分之一。这就是未来,新一代的机器人,其灵巧程度远超汽车业与其他 阅读全文
posted @ 2013-01-04 10:34 renly2013 阅读(210) 评论(0) 推荐(0) 编辑
摘要: 2002阅读3赞0评论机器人在一夜之间充满各大新闻。三菱刚刚宣布他们特别设计制造了一个机器人来帮助清理福岛核电站;美国国家航空航天局(NASA)正在制造用于外太空的机器人勤杂工。在过去的两个星期里我们看到,一份新的给机器人看的iPad指南(该机器人选用19世纪的26个机器人);一个新发明的专门用于给Roomba(美国家用机器人)下载应用的网站robotappstore.com。点名时间(Kickstarter)上时下最热的,即将于13年3月上架的Romo,是一个小巧、外形如坦克、由iPhone作为”大脑“的机器人。这不是人们第一次试图追逐服务类机器化市场。最为人熟知的可能就是视频游戏先驱Ata 阅读全文
posted @ 2013-01-04 10:23 renly2013 阅读(385) 评论(0) 推荐(0) 编辑
摘要: 译者:丫丫丫机器人也能像科学家一样工作吗?这个问题乍一听似乎很愚蠢。计算机现在遍布科学研究的各个领域。如果走进某所大学的大实验室,很可能会看到装备齐全的机器人与身着白大褂的人类并肩工作。机器人可以向试管添加试剂,进行DNA微阵列排序,实施考古发掘,探索海洋世界。还有一些学科分支完全仰仗强大的微处理器:如气候建模和基因组学。甚至连抽象思维拓展也离不开机器的帮助。在实验数学中,人类依靠计算机启发新思想,也利用它们验证假说。1976年,数学家们使用计算机证明了“四色定理”。自此之后,计算机也在其他几项证明中发挥了作用。不过在科学研究的诸多领域内,人类和计算机的分工依然很明确。机器负责枯燥的工作:计算 阅读全文
posted @ 2013-01-04 10:19 renly2013 阅读(221) 评论(0) 推荐(0) 编辑