摘要: 我们知道,监督式学习算法通常是从数据中学习出来一个模型。假如输入数据是X,输出数据是Y,学习的过程就是找出尽量接近转换函数f的的过程,使得f(X)=Y。 影响机器学习准确度的3种误差包括: Bias Error(偏差) Variance Error(方差) Irreducible Error(不可消 阅读全文
posted @ 2020-05-28 04:57 吕汉鸿 阅读(203) 评论(0) 推荐(0) 编辑
摘要: 基尼不纯度Gini Impurity是理解决策树和随机森林分类算法的一个重要概念。我们先看看下面的一个简单例子 - 假如我们有以下的数据集 我们如何选择一个很好的分割值把上面的5个蓝点和5个绿点完美的分开呢?通过观察,我们选择分隔值x=2 如果我们选取x=1.5呢? 这样做的结果是左边是4个蓝点,右 阅读全文
posted @ 2020-05-27 07:12 吕汉鸿 阅读(10638) 评论(0) 推荐(1) 编辑
摘要: 前面我们介绍了Q-learning算法的原理,现在我们就一步一步地用实际数值演示一下,给大家一个更直观的认识。 首先我们选择Gamma值的初值为0.8,agent的初始位置是房间1,前面显示的R矩阵不变,Q矩阵所有值都被初始化为0。 由于起始位置是房间1,所以我们先看R矩阵的第二行,其中有2个可能, 阅读全文
posted @ 2020-04-25 03:18 吕汉鸿 阅读(1531) 评论(0) 推荐(0) 编辑
摘要: 我们在这里使用一个简单的例子来介绍Q-learning的工作原理。下图是一个房间的俯视图,我们的智能体agent要通过非监督式学习来了解这个陌生的环境。图中的0到4分别对应一个房间,5对应的是建筑物周围的环境。如果房间之间有一个门,那么这2个房间就是直接相通的,否则就要通过其他房间相通。 下面的这个 阅读全文
posted @ 2020-04-24 08:06 吕汉鸿 阅读(2719) 评论(0) 推荐(0) 编辑
摘要: 我们在这篇随笔中讨论一下使用深度学习的方法来解决问题的通用框架,这个框架适合绝大多数的问题,当然不排除个别的特例,如用深度学习算法编写围棋对弈的算法、编写金融市场的交易算法、对服装流行趋势的预测等等。但是对于绝大多数的分类问题、回归问题、图像语音识别问题,这个框架仍然对我们有着很好的指导作用。要理解 阅读全文
posted @ 2020-03-18 08:17 吕汉鸿 阅读(245) 评论(0) 推荐(0) 编辑
摘要: 在机器学习中通过学习训练数据找出目标函数或近似函数的方法是一种归纳学习的方式。归纳学习就是通过学习个例来发现一般规律的方式,这恰恰是机器学习要解决的问题。模型的通用性是指一个机器学习模型对新数据的适用性或预测准确率的好坏。而机器学习的目标就是通过学习让模型获得很好的通用性,从而对新数据做出准确的预测 阅读全文
posted @ 2020-03-17 08:22 吕汉鸿 阅读(211) 评论(0) 推荐(0) 编辑
摘要: 在机器学习中,我们通常都将手中的数据分为3部分:训练数据、验证数据和测试数据。不用相同的数据来训练和评估一个机器学习模型的原因很容易理解,那就是容易造成模型的过拟合(overfitting)。过拟合的模型在新数据面前,预测的准确度不仅仅会停滞不前,甚至会不断的恶化。 我们知道机器学习的目标是获得一个 阅读全文
posted @ 2020-02-24 20:29 吕汉鸿 阅读(202) 评论(0) 推荐(0) 编辑
摘要: 本人作者:吕汉鸿 事实证明,软件外包对全球许多公司来说都是巨大的成功。这些组织的CIO制定了IT战略,以支持企业在发展业务方面的愿景。 CIO对其他高级管理人员的承诺是按时并在预算范围内交付高质量的项目。在年度审核期间评估和选择成熟的离岸开发中心(ODC)已成为CIO议程中的关键部分。在本文中,我们将介绍离岸开发中心的成熟度模型。开发中心是由发起软件项目的组织全资拥有还是该组织的第三方合作伙伴,都没有太大的区别。该模型是我本人在3家知名国际银行(花旗银行、瑞士银行、野村证券)管理跨国家和跨时区的离岸软件项目时并结合软件开发最佳实践而总结出来的。该模型很好地服务于上述华尔街公司的IT策略。对于非银行业,这种成熟度模型同样适用,因为这些最佳实践并非针对特定行业。 阅读全文
posted @ 2020-02-23 00:13 吕汉鸿 阅读(336) 评论(0) 推荐(0) 编辑
摘要: 一个连续函数f(x) = y,其中x和y都是实数,当x值有个微小的变化时,y的值也会只有一个微小的变化,所以f(x+epsilon_x) = y+epsilon_y,这里epsilon_x和epsilon_y都是一个很小的值。当f(x)函数代表一条光滑的曲线时,我们可以用一条直线模拟f(x)在点p周围的微小变化,因此我们可以再把上面的公式写成: f(x+epsilon_x) = y + a*epsilon_x (前提是epsilon_x和epsilon_y都是一个很小的值),这里a是曲线f在点p的斜率,见下图。 阅读全文
posted @ 2020-02-22 23:04 吕汉鸿 阅读(270) 评论(0) 推荐(0) 编辑
摘要: 我们知道神经网络的每个层(layer)都会对输入数据做如下的转换: output = relu(dot(W, input) + b) 上面表达式中的W和b都是张量数据(tensor),它们代表这个神经网络层的属性,也被称作权重(weights)。这些权重数据就是神经网络通过学习训练数据而获得的。 阅读全文
posted @ 2020-02-22 01:15 吕汉鸿 阅读(181) 评论(0) 推荐(0) 编辑
Save on your hotel - hotelscombined.com