上一页 1 ··· 14 15 16 17 18 19 20 21 22 ··· 35 下一页
摘要: 半监督学习:综合利用有类标的数据和没有类标的数据,来生成合适的分类函数。它是一类可以自动地利用未标记的数据来提升学习性能的算法 1、生成式半监督学习 优点:方法简单,容易实现。通常在有标记数据极少时,生成式半监督学习方法比其他方法性能更好 缺点:假设的生成式模型必须与真实数据分布吻合。如果不吻合则可 阅读全文
posted @ 2017-09-23 20:57 Run_For_Love 阅读(5911) 评论(0) 推荐(1) 编辑
摘要: 人工神经网络是有一系列简单的单元相互紧密联系构成的,每个单元有一定数量的实数输入和唯一的实数输出。神经网络的一个重要的用途就是接受和处理传感器产生的复杂的输入并进行自适应性的学习,是一种模式匹配算法,通常用于解决分类和回归问题。 常用的人工神经网络算法包括:感知机神经网络(Perceptron Ne 阅读全文
posted @ 2017-09-21 21:16 Run_For_Love 阅读(2261) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2017-09-20 22:32 Run_For_Love 阅读(5) 评论(0) 推荐(0) 编辑
摘要: 支持向量机(Support Vector Machine,SVM)的基本模型是定义在特征空间上间隔最大的线性分类器。它是一种二类分类模型,当采用了核技巧之后,支持向量机可以用于非线性分类。 1)线性可分支持向量机(也称硬间隔支持向量机):当训练数据线性可分是,通过硬间隔最大化,学得一个线性可分支持向 阅读全文
posted @ 2017-09-19 20:05 Run_For_Love 阅读(1317) 评论(0) 推荐(0) 编辑
摘要: 1、评估标准 1)经验误差 :训练集上产生的误差 2)泛化误差:对新样本进行预测产生的误差 3)过拟合:经验误差很小甚至为零,泛化误差很大(模型训练的很复杂,几乎涵盖了训练集中所有的样本点) 4)欠拟合:与过拟合相反 一般模型的泛化误差越小越好 2、评估方法 1)留出法:采用分层采样的方式留出验证集 阅读全文
posted @ 2017-09-19 08:31 Run_For_Love 阅读(339) 评论(0) 推荐(0) 编辑
摘要: 暂无 阅读全文
posted @ 2017-09-17 11:05 Run_For_Love 阅读(393) 评论(0) 推荐(0) 编辑
摘要: 注:本文中涉及到的公式一律省略(公式不好敲出来),若想了解公式的具体实现,请参考原著。 1、基本概念 (1)聚类的思想: 将数据集划分为若干个不想交的子集(称为一个簇cluster),每个簇潜在地对应于某一个概念。但是每个簇所具有现实意义由使用者自己决定,聚类算法仅仅会进行划分。 (2)聚类的作用: 阅读全文
posted @ 2017-09-16 17:39 Run_For_Love 阅读(5433) 评论(0) 推荐(0) 编辑
摘要: 注:因为公式敲起来太麻烦,因此本文中的公式没有呈现出来,想要知道具体的计算公式,请参考原书中内容 降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中 1、主成分分析(PCA) 将n维样本X通过投影矩阵W,转换为K维矩阵Z 输入:样本集D,低维空间d 输出:投影矩阵W 算法步骤: 阅读全文
posted @ 2017-09-15 22:29 Run_For_Love 阅读(16618) 评论(1) 推荐(1) 编辑
摘要: 机器学习技术在搜索引擎中得到了很好的应用,百度、谷歌都成立了相应的机器学习团队 无人驾驶技术的研究也需要机器学习的支持,目前百度和谷歌都在无人驾驶方面进行着深入的研究 机器学习在分析数据方面,有着极大的优势,因此在选举活动、推荐系统中起到了至关重要的作用 阅读全文
posted @ 2017-09-15 00:12 Run_For_Love 阅读(238) 评论(0) 推荐(0) 编辑
摘要: ex1(p20) 代码如下: 1 import random 2 3 def Darts(n): 4 k=0 5 i=1 6 while i<=n: 7 x=random.uniform(0,1) 8 #y=random.uniform(0,1) 9 y=x 10 if(x**2+y**2<=1): 阅读全文
posted @ 2017-09-12 22:41 Run_For_Love 阅读(199) 评论(0) 推荐(0) 编辑
上一页 1 ··· 14 15 16 17 18 19 20 21 22 ··· 35 下一页