飞鸟各投林

导航

2017年3月31日 #

c++中字符串反转的3种方法

摘要: 第一种:使用algorithm中的reverse函数 第二种:自己编写 第三种:使用string.h中的strrev函数 阅读全文

posted @ 2017-03-31 23:59 飞鸟各投林 阅读(14935) 评论(0) 推荐(1) 编辑

机器学习面试问题9

摘要: 图模型 图模型是一类用图来表示概率分布的一类技术的总称。 它的主要优点是把概率分布中的条件独立用图的形式表达出来,从而可以把一个概率分布(特定的,和应用相关的)表示为很多因子的乘积,从而简化在边缘化一个概率分布的计算,这里的边缘化指的是给定n个变量的概率分布,求取其中m个变量的概率分布的计算(m小于 阅读全文

posted @ 2017-03-31 23:49 飞鸟各投林 阅读(232) 评论(0) 推荐(0) 编辑

机器学习面试问题10

摘要: 线性分类器与非线性分类器的区别及优势 线性分类器:模型是参数的线性函数,分类平面是(超)平面; 非线性分类器:模型分界面可以是曲面或者超平面的组合。 典型的线性分类器有感知机,LDA,逻辑斯特回归,SVM(线性核); 典型的非线性分类器有朴素贝叶斯(有文章说这个本质是线性的,http://datau 阅读全文

posted @ 2017-03-31 23:49 飞鸟各投林 阅读(292) 评论(0) 推荐(0) 编辑

机器学习面试问题7

摘要: 为什么要用逻辑回归 逻辑回归主要解决线性可分问题,模型简单,易于理解和实现,很适合用来学习大数据的问题。另外,逻辑回归做在线学习比较容易,处理速度也快。 SVM和LR的区别: 两种方法都是常见的分类算法,从目标函数来看,区别在于逻辑回归采用的是logistical loss,svm采用的是hinge 阅读全文

posted @ 2017-03-31 23:48 飞鸟各投林 阅读(315) 评论(0) 推荐(0) 编辑

机器学习面试问题6

摘要: 以下内容接机器学习面试问题5. 神经网络参数相关 参数的范围 目前还没有明确的参数范围,只有个人总结性的原则。如下: 网络参数确定原则: ①、网络节点 网络输入层神经元节点数就是系统的特征因子(自变量)个数,输出层神经元节点数就是系统目标个数。隐层节点选按经验选取,一般设为输入层节点数的75%。如果 阅读全文

posted @ 2017-03-31 23:47 飞鸟各投林 阅读(371) 评论(0) 推荐(0) 编辑

机器学习面试问题4

摘要: 以下内容接机器学习面试问题3。内容比较粗略,细化会在后期完成,敬请期待。 神经网络 神经网络算法涉及的知识点内容较多,需要深入专研,可参考: http://max.book118.com/html/2016/0303/36785438.shtm BP网络的四个学习过程:(δ规则) 1)模式顺传播 , 阅读全文

posted @ 2017-03-31 23:46 飞鸟各投林 阅读(253) 评论(0) 推荐(0) 编辑

机器学习面试问题5

摘要: 常见问题 和svm相关的 如何组织训练数据 1)将数据分开为训练集、测试集; 2)对训练集寻优,构建好决策函数,训练分类器; 3)用测试集验证准确率,达到满足需要的准确率后,就可以用新数据分类。 如何调节惩罚因子 惩罚因子(参数C):为了使用松弛变量才引入的,表示对离群点的重视程度。C越大越重视,越 阅读全文

posted @ 2017-03-31 23:46 飞鸟各投林 阅读(348) 评论(0) 推荐(0) 编辑

机器学习面试问题3

摘要: 以下内容承接机器学习相关面试2。 Apriori Apriori算法是一种关联规则的基本算法,是挖掘关联规则的频繁项集算法,也称“购物篮分析”算法,是“啤酒与尿布”案例的代表。 算法步骤: 1)依据支持度找出所有频繁项集。 Apriori算法是发现频繁项集的一种方法。Apriori算法的两个输入参数 阅读全文

posted @ 2017-03-31 23:45 飞鸟各投林 阅读(375) 评论(0) 推荐(0) 编辑

机器学习面试问题1

摘要: 本机器学习面试问题系列博客共有10章,从1到10分别总结了机器学习面试的经典常用问题,也是阿里面试常用考题,系小编呕心沥血之作,希望大家能够在参考之余和小编积极交流,欢迎评论,欢迎来踩!希望能对和小编一样的机器学习爱好者提供实质性帮助。 基本知识 监督与非监督的区别 监督:输入的数据有明确的标识,可 阅读全文

posted @ 2017-03-31 23:44 飞鸟各投林 阅读(322) 评论(0) 推荐(0) 编辑

机器学习面试问题2

摘要: 算法原理 LR logistic(逻辑回归)是一种广义线性回归分析模型,是一种分类算法。 通过函数L将w‘x+b对应一个隐状态p,p =L(w‘x+b),然后根据p 与1-p的大小决定因变量的值。L是logistic函数. 该模型是典型的数学模型,它服从逻辑斯蒂分布。 二项逻辑斯蒂回归模型是如下的条 阅读全文

posted @ 2017-03-31 23:44 飞鸟各投林 阅读(214) 评论(0) 推荐(0) 编辑

推荐算法

摘要: 目前,主要的推荐方法包括:基于内容的推荐、协同过滤推荐、基于关联规则的推荐、基于效用的推荐、基于知识的推荐和组合推荐。 基于内容的推荐 基于内容的推荐(Content-based Recommendation)是信息过滤技术的延续与发展,它是建立在项目的内容信息上作出推荐的,而不需要依据用户对项目的 阅读全文

posted @ 2017-03-31 23:43 飞鸟各投林 阅读(994) 评论(1) 推荐(0) 编辑

机器学习面试问题8

摘要: userCF和itemCF在实际当中如何使用,提供具体操作,以及它们的优势(推荐系统) 基于用户的协同过滤算法UserCF 基于用户的协同过滤,通过不同用户对物品的评分来评测用户之间的相似性,基于用户间的相似性做出推荐。 简单来讲就是:给用户推荐和他兴趣相似的其他用户喜欢的物品。 基于UserCF的 阅读全文

posted @ 2017-03-31 23:40 飞鸟各投林 阅读(765) 评论(0) 推荐(0) 编辑

决策树与随机森林算法

摘要: 决策树 决策树模型是一种树形结构,基于特征对实例进行分类或回归的过程。即根据某个特征把数据分划分到若干个子区域(子树),再对子区域递归划分,直到满足某个条件则停止划分并作为叶子节点,不满足条件则继续递归划分。 一个简单的决策树分类模型:红色框出的是特征。 决策树模型学习过程通常包3个步骤:特征选择、 阅读全文

posted @ 2017-03-31 23:34 飞鸟各投林 阅读(2467) 评论(0) 推荐(0) 编辑

机器学习面试问题汇总

摘要: 伪代码实现:LR、梯度下降、最小二乘、KNN、Kmeans; LR,SVM,XGBOOST推公式(手推) LR,SVM,RF,KNN,EM,Adaboost,PageRank,GBDT,Xgboost,HMM,DNN,推荐算法,聚类算法,等等机器学习领域的算法 基本知识: 1)监督与非监督区别; 是 阅读全文

posted @ 2017-03-31 23:31 飞鸟各投林 阅读(9426) 评论(0) 推荐(0) 编辑

RF是如何工作的?

摘要: 随机森林的发展史 谈及随机森林算法的产生与发展,我们必须回溯到20世纪80年代。可以说,该算法是Leo Breiman, Adele Cutler, Ho Tin Kam, Dietterich, Amit和Geman这几位大师呕心沥血的共同结晶,他们中的每个人都对随机森林算法的早期发展作出了重要的 阅读全文

posted @ 2017-03-31 23:05 飞鸟各投林 阅读(391) 评论(0) 推荐(0) 编辑

RF的优缺点

摘要: 随机森林有什么优点,如: a. 对于很多数据集表现良好,精确度比较高; b. 不容易过拟合; c. 可以得到变量的重要性排序; d. 既能处理离散型数据,也能处理连续型数据,且不需要进行归一化处理; (美团被深入问到) e. 能够很好的处理缺失数据; f. 容易并行化 关于材料再说句题外话,我之前是 阅读全文

posted @ 2017-03-31 22:55 飞鸟各投林 阅读(1290) 评论(0) 推荐(0) 编辑

国内NLP的那些人那些会

摘要: 统计学和语言学专家都列在一起了,没有区分。1,黄昌宁,1937年生于广东,1955年考入清华大学电机系,1961年毕业并留校任教至博士生导师, 1983-1984年赴美国耶鲁大学进修,1986-1987年曾在香港理工大学任教,1999年4月加入微软中国研究院任主任研究员。中国计算机自然语言处理领域的 阅读全文

posted @ 2017-03-31 22:25 飞鸟各投林 阅读(483) 评论(0) 推荐(0) 编辑

B-、B+、B*树

摘要: B-树:多路搜索树,每个结点存储M/2到M个关键字,非叶子结点存储指向关键字范围的子结点;所有关键字在整颗树中出现,且只出现一次,非叶子结点可以命中; B+树:在B-树基础上,为叶子结点增加链表指针,所有关键字都在叶子结点中出现,非叶子结点作为叶子结点的索引;B+树总是到叶子结点才命中; B*树:  阅读全文

posted @ 2017-03-31 22:17 飞鸟各投林 阅读(206) 评论(0) 推荐(0) 编辑