上一页 1 ··· 28 29 30 31 32 33 34 35 36 ··· 50 下一页
摘要: 16.1问题形式化 (1)讲推荐系统的原因主要有以下几点: 1.推荐系统是一个很重要的机器学习的应用,虽然在学术界上占比较低,但是在商业应用中非常的重要,占有很高的优先级。 2.传达机器学习的一个大思想:特性是可以学习而来的,不需要人工去选择。 (2)说明的案例:电影推荐系统 希望创建一个算法来预测 阅读全文
posted @ 2019-08-02 17:52 你的雷哥 阅读(361) 评论(0) 推荐(0) 编辑
摘要: 17.1大型数据集的学习 首先通过学习曲线判断是否增大数据集有效: 高方差时(交叉验证集误差减去训练集误差大时)增加数据集可以提高系统。下图中左图增加数据集有效,右图无效。 17.2随机梯度下降法 随机梯度下降法是只使用一个样本来迭代,其损失函数为: 迭代过程为: 特点: (1)计算量小,迭代速度快 阅读全文
posted @ 2019-08-02 17:46 你的雷哥 阅读(342) 评论(0) 推荐(0) 编辑
摘要: 15.1问题的动机 将正常的样本绘制成图表(假设可以),如下图所示: 当新的测试样本同样绘制到图标上,如果偏离中心越远说明越可能不正常,使用某个可能性阈值,当低于正常可能性阈值时判断其为异常,然后做进一步的检查。异常检测常用于工业生产、异常用户等实际场景中。 以上这种方法叫密度评估: 15.2高斯分 阅读全文
posted @ 2019-08-02 15:44 你的雷哥 阅读(387) 评论(0) 推荐(0) 编辑
摘要: Q1动机一:数据压缩 将特征进行降维,如将相关的二维降到一维: 三维变二维: 以此类推把1000维数据降成100维数据。减少内存占用的空间 Q2动机二:数据可视化 如50个维度的数据是无法进行可视化的,使用降维的方法可以使其降到2维,然后进行可视化。 降维的算法只负责减少维度,新产生的特征的意义就必 阅读全文
posted @ 2019-08-02 12:08 你的雷哥 阅读(349) 评论(0) 推荐(0) 编辑
摘要: 13.1无监督学习:简介 将没有标签的样本分成不同的集合(簇),这种算法叫做聚类。常用的领域有市场分割、社交网络分析、计算机集群管理、了解星系等。 13.2K-均值算法 (1)K-均值是最普及的聚类算法,是一种迭代算法,假设需要将数据聚类成n个组,这时候首先随机选择K个点,称为聚类中心。 将每个样本 阅读全文
posted @ 2019-08-02 10:13 你的雷哥 阅读(261) 评论(0) 推荐(0) 编辑
摘要: 12.1目标优化 (1)以下是逻辑回归以及单个样本的代价函数 (2)首先将使用上图中紫色的线(称为cost1或者cost0)的代替曲线,然后将样本数m去掉,最后将C代替1/λ(可以这么理解,但不完全是),从而实现逻辑回归的代价函数到SVM的转换。 (3)SVM的输出将不再是逻辑回归的概率,而就是0或 阅读全文
posted @ 2019-08-01 13:02 你的雷哥 阅读(371) 评论(0) 推荐(0) 编辑
摘要: Q1首先要做什么 本章将在随后的课程中讲误差分析,然后怎样用一个更加系统性非方法,从一堆不同的方法中,选取合适的那一个。 Q2误差分析 构建一个学习算法的推荐方法为: (1)从一个简单的能快速实现的算法开始,实现该算法并用交叉验证集数据测试这个算法; (2)绘制学习曲线,决定是增加更多数据,或者添加 阅读全文
posted @ 2019-07-31 22:38 你的雷哥 阅读(419) 评论(0) 推荐(0) 编辑
摘要: Q1决定下一步该干什么 当系统的效果很差时,你可能考虑到收集更多的样本,也可能: (1)尝试减少特征的数量; (2)尝试获得更多的特征; (3)尝试增加多项式特征; (4)尝试减少正则化程度λ; (5)尝试增加正则化程度λ。 如果做决策将是本章的内容。而不是盲目的选择一种策略。 Q2评估一个假设 将 阅读全文
posted @ 2019-07-31 21:56 你的雷哥 阅读(220) 评论(0) 推荐(0) 编辑
摘要: 网上的一个介绍神经网路算法的反向传播算法很好的例子。原文链接 说到神经网络,大家看到这个图应该不陌生: 这是典型的三层神经网络的基本构成,Layer L1是输入层,Layer L2是隐含层,Layer L3是隐含层,我们现在手里有一堆数据{x1,x2,x3,...,xn},输出也是一堆数据{y1,y 阅读全文
posted @ 2019-07-31 18:58 你的雷哥 阅读(1002) 评论(0) 推荐(0) 编辑
摘要: 在我们接触神经网络过程中,很容易看到就是这样一个式子,g(wx+b),其中w,x均为向量.比如下图所示: 加入激活函数为g(x),我们就可以用公式g(w1x1+w2x2+b)(注:1,2均为下标,公众号很难打,下面所有的公式均是)来表示神经元的输出。 其中b为神经元的偏置.那么w,b这些参数的作用有 阅读全文
posted @ 2019-07-30 22:38 你的雷哥 阅读(1165) 评论(0) 推荐(0) 编辑
上一页 1 ··· 28 29 30 31 32 33 34 35 36 ··· 50 下一页