摘要:
最近 Kotlin 和人工智能比较火,有不少同学留言问我怎么学习 Kotlin,怎么学习机器学习,今天就给大家推荐两份不错的学习资料。 1. Kotlin 学习资料其实,在我看来最好的学习资料就是 Kotlin 官网,官方网站有详细的教程,包括怎么搭建环境,使用什么样的工具,怎么学习语法等等,地址在 阅读全文
随笔分类 - Machine Learning
定制你自己的CRF模型
2018-11-14 21:31 by GarfieldEr007, 812 阅读, 收藏, 编辑
摘要:
如何训练自己的CRF模型 Ansj从5.0版本之后支持训练自己的crf模型,在此之前虽然已经很早支持了CRF模型,但是在用户的自训练上要求苛刻,而且本身实现的CRF从性能到准确率都不如CRF++或者第三方的,好吧.目前我做的是完败,所以另辟蹊径,打不过就嫖呗.只要支持他们训练的模型就可以.下面是一个 阅读全文
用CRF++开源工具做文本序列标注教程
2018-11-14 21:30 by GarfieldEr007, 1772 阅读, 收藏, 编辑
摘要:
本文只介绍如何快速的使用CRF++做序列标注,对其中的原理和训练测试参数不做介绍。 官网地址:CRF++: Yet Another CRF toolkit 主要完成如下功能: 输入 -> "周杰伦是谁" 输出 -> "[周杰伦:artist]是谁" 以下所有内容均为原创,如果觉得本教程不错的话,点个 阅读全文
CRFPP/CRF++编译安装与部署
2018-11-14 21:29 by GarfieldEr007, 1619 阅读, 收藏, 编辑
摘要:
CRFPP/CRF++编译安装与部署 from: http://blog.51cto.com/wutengfei/2095715 阅读全文
CRF 及CRF++ 安装与解释
2018-11-14 21:28 by GarfieldEr007, 1325 阅读, 收藏, 编辑
摘要:
CRF简介 Conditional Random Field:条件随机场,一种机器学习技术(模型) CRF由John Lafferty最早用于NLP技术领域,其在NLP技术领域中主要用于文本标注,并有多种应用场景,例如: 分词(标注字的词位信息,由字构词) 词性标注(标注分词的词性,例如:名词,动词 阅读全文
机器学习经典书籍
2016-06-19 23:00 by GarfieldEr007, 2181 阅读, 收藏, 编辑
摘要:
前面有一篇机器学习经典论文/survey合集331。本文总结了机器学习10的经典书籍,包括数学基础和算法理论的书籍。本文会保持更新,欢迎推荐。 入门书单 《数学之美》 PDF683作者吴军大家都很熟悉。以极为通俗的语言讲述了数学在机器学习和自然语言处理等领域的应用。 《Programming Col 阅读全文
机器学习: 神经网络中的Error函数
2016-06-17 16:48 by GarfieldEr007, 437 阅读, 收藏, 编辑
摘要:
利用神经网络做分类的时候,可以将神经网络看成一个mapping function,从输入到输出经过复杂的非线性变换。而输出的预测值与实际的目标值总是存在一定偏差的,一般利用这种偏差建立error 函数,再利用back propagation 来训练神经网络。 我们可以探讨一下,error 函数与概率 阅读全文
高斯判别分析 Gaussian Discriminant Analysis
2016-05-22 18:31 by GarfieldEr007, 526 阅读, 收藏, 编辑
摘要:
如果在我们的分类问题中,输入特征xx是连续型随机变量,高斯判别模型(Gaussian Discriminant Analysis,GDA)就可以派上用场了。 以二分类问题为例进行说明,模型建立如下: 对应的概率分布形式如下: p(y)=ϕy(1−ϕ)1−y(1)(1)p(y)=ϕy(1−ϕ)1−y 阅读全文
Line Search and Quasi-Newton Methods 线性搜索与拟牛顿法
2016-05-22 18:30 by GarfieldEr007, 3107 阅读, 收藏, 编辑
摘要:
Gradient Descent 机器学习中很多模型的参数估计都要用到优化算法,梯度下降是其中最简单也用得最多的优化算法之一。梯度下降(Gradient Descent)[3]也被称之为最快梯度(Steepest Descent),可用于寻找函数的局部最小值。梯度下降的思路为,函数值在梯度反方向下降 阅读全文
随机森林——Random Forests
2016-04-17 19:42 by GarfieldEr007, 379 阅读, 收藏, 编辑
摘要:
[基础算法] Random Forests 2011 年 8 月 9 日 Random Forest(s),随机森林,又叫Random Trees[2][3],是一种由多棵决策树组合而成的联合预测模型,天然可以作为快速且有效的多类分类模型。如下图所示,RF中的每一棵决策树由众多split和node组 阅读全文
海明距离hamming distance
2016-04-17 19:41 by GarfieldEr007, 840 阅读, 收藏, 编辑
摘要:
仔细阅读ORB的代码,发现有很多细节不是很明白,其中就有用暴力方式测试Keypoints的距离,用的是HammingLUT,上网查了才知道,hamming距离是相差位数。这样就好理解了。 我理解的HammingLUT lut; result=lut((a),(b),size_t size):resu 阅读全文
libsvm+detector_(libsvm参数说明)
2016-04-17 19:32 by GarfieldEr007, 450 阅读, 收藏, 编辑
摘要:
细分析了cvhop.cpp中的compute函数,可以直接调用它来获得样本HOG,然后训练得到检测算子1.制作样本2.对每一张图片调用hog.compute(img, descriptors,Size(8,8), Size(0,0));可以生成hog descriptors,把它保存到文件中for( 阅读全文
数据挖掘十大经典算法
2016-04-17 19:04 by GarfieldEr007, 164 阅读, 收藏, 编辑
摘要:
国际权威的学术组织the IEEE International Conference on Data Mining (ICDM) 2006年12月评选出了数据挖掘领域的十大经典算法:C4.5, k-Means, SVM, Apriori, EM, PageRank, AdaBoost, kNN, N 阅读全文
机器学习自学指南
2016-04-09 18:55 by GarfieldEr007, 332 阅读, 收藏, 编辑
摘要:
事实上有许多的途径可以了解机器学习,也有许多的资源例如书籍、公开课等可为所用,一些相关的比赛和工具也是你了解这个领域的好帮手。本文我将围绕这个话题,给出一些总结性的认识,并为你由程序员到机器学习高手的蜕变旅程中提供一些学习指引。 机器学习的四个层次 根据能力可以将学习过程分成四个阶段。这也是一个有助 阅读全文
受限波兹曼机导论Introduction to Restricted Boltzmann Machines
2016-04-09 18:32 by GarfieldEr007, 1153 阅读, 收藏, 编辑
摘要:
Suppose you ask a bunch of users to rate a set of movies on a 0-100 scale. In classical factor analysis, you could then try to explain each movie and 阅读全文
应用scikit-learn做文本分类
2016-04-05 13:45 by GarfieldEr007, 410 阅读, 收藏, 编辑
摘要:
文本挖掘的paper没找到统一的benchmark,只好自己跑程序,走过路过的前辈如果知道20newsgroups或者其它好用的公共数据集的分类(最好要所有类分类结果,全部或取部分特征无所谓)麻烦留言告知下现在的benchmark,万谢! 嗯,说正文。20newsgroups官网上给出了3个数据集, 阅读全文
决策树Decision Tree 及实现
2016-04-05 13:44 by GarfieldEr007, 585 阅读, 收藏, 编辑
摘要:
Decision Tree 及实现 Decision Tree 及实现 标签: 决策树熵信息增益分类有监督 2014-03-17 12:12 15010人阅读 评论(41) 收藏 举报 标签: 决策树熵信息增益分类有监督 2014-03-17 12:12 15010人阅读 评论(41) 收藏 举报 阅读全文
K近邻分类算法实现 in Python
2016-04-05 13:41 by GarfieldEr007, 404 阅读, 收藏, 编辑
摘要:
K近邻(KNN):分类算法 * KNN是non-parametric分类器(不做分布形式的假设,直接从数据估计概率密度),是memory-based learning. * KNN不适用于高维数据(curse of dimension) * Machine Learning的Python库很多,比如 阅读全文
什么叫大牛,看看发表论文排行榜-20140317
2016-03-31 21:08 by GarfieldEr007, 412 阅读, 收藏, 编辑
摘要:
下面是截止到20140317时的统计结果: 【1-JMLR】: Klaus-Robert Müller(15) Francis R. Bach(14) Tong Zhang(14) Michael I. Jordan(13) Alexander J. Smola(13) Yoram Singer(1 阅读全文
牛顿法、拟牛顿法、共轭梯度法
2016-03-31 21:02 by GarfieldEr007, 3266 阅读, 收藏, 编辑
摘要:
牛顿法 一: 最速下降法 下降法的迭代格式为xk+1=xk–αkdk 一: 最速下降法 下降法的迭代格式为xk+1=xk–αkdk , 其中dk为下降方向, 设gk=∇f(xk)≠0, 则下降方向要满足dTkgk<0. 当步长确定时, dTkgk的值越小, 即−dTkgk的值越大, 函数下降得越快. 阅读全文