BAT机器学习面试1000题系列(81-85题)
BAT机器学习面试1000题系列(81-85题)
81.Nave Bayes是一种特殊的Bayes分类器,特征变量是X,类别标签是C,它的一个假定是:(C) A.各类别的先验概率P(C)是相等的
B.以0为均值,sqr(2)/2为标准差的正态分布
C.特征变量X的各个维度是类别条件独立随机变量
D.P(X|C)是高斯分布
@BlackEyes_SGC:朴素贝叶斯的条件就是每个变量相互独立。
82.关于支持向量机SVM,下列说法错误的是(C)
A.L2正则项,作用是最大化分类间隔,使得分类器拥有更强的泛化能力
B.Hinge 损失函数,作用是最小化经验分类错误
C.分类间隔为1/||w||,||w||代表向量的模
D.当参数C越小时,分类间隔越大,分类错误越多,趋于欠学习
@BlackEyes_SGC:A正确。考虑加入正则化项的原因:想象一个完美的数据集,y>1是正类,y<-1是负类,决策面y=0,加入一个y=-30的正类噪声样本,那么决策面将会变“歪”很多,分类间隔变小,泛化能力减小。加入正则项之后,对噪声样本的容错能力增强,前面提到的例子里面,决策面就会没那么“歪”了,使得分类间隔变大,提高了泛化能力。B正确。 C错误。间隔应该是2/||w||才对,后半句应该没错,向量的模通常指的就是其二范数。 D正确。考虑软间隔的时候,C对优化问题的影响就在于把a的范围从[0,+inf]限制到了[0,C]。C越小,那么a就会越小,目标函数拉格朗日函数导数为0可以求出w=求和ai∗yi∗xi,a变小使得w变小,因此间隔2/||w||变大
83.在HMM中,如果已知观察序列和产生观察序列的状态序列,那么可用以下哪种方法直接进行参数估计(D)
A.EM算法 B.维特比算法 C.前向后向算法 D.极大似然估计
@BlackEyes_SGC: EM算法: 只有观测序列,无状态序列时来学习模型参数,即Baum-Welch算法
维特比算法: 用动态规划解决HMM的预测问题,不是参数估计
前向后向算法:用来算概率
极大似然估计:即观测序列和相应的状态序列都存在时的监督学习算法,用来估计参数
注意的是在给定观测序列和对应的状态序列估计模型参数,可以利用极大似然发估计。如果给定观测序列,没有对应的状态序列,才用EM,将状态序列看不不可测的隐数据。
84.假定某同学使用Naive Bayesian(NB)分类模型时,不小心将训练数据的两个维度搞重复了,那么关于NB的说法中正确的是(BD):
A.这个被重复的特征在模型中的决定作用会被加强
B.模型效果相比无重复特征的情况下精确度会降低
C.如果所有特征都被重复一遍,得到的模型预测结果相对于不重复的情况下的模型预测结果一样。
D.当两列特征高度相关时,无法用两列特征相同时所得到的结论来分析问题
E.NB可以用来做最小二乘回归
F.以上说法都不正确
@BlackEyes_SGC:NB的核心在于它假设向量的所有分量之间是独立的。在贝叶斯理论系统中,都有一个重要的条件独立性假设:假设所有特征之间相互独立,这样才能将联合概率拆分
85.以下哪些方法不可以直接来对文本分类? (A)
A、Kmeans B、决策树 C、支持向量机 D、KNN
@BlackEyes_SGC:A:Kmeans是聚类方法,典型的无监督学习方法。分类是监督学习方法,BCD都是常见的分类方法。
文章被以下专栏收录

推荐阅读
BAT机器学习面试1000题系列(236-240)
236.回归模型中存在多重共线性, 你如何解决这个问题? 1. 去除这两个共线性变量 2. 我们可以先去除一个共线性变量 3. 计算VIF(方差膨胀因子), 采取相应措施 4. 为了避免损失信息, 我们可以…
BAT机器学习面试1000题系列(241-245)
241.下图是同一个SVM模型, 但是使用了不同的径向基核函数的gamma参数, 依次是g1, g2, g3 , 下面大小比较正确的是 : A. g1 > g2 > g3 B. g1 = g2 = g3 C. g1 < g2 < g3 D. g1 &g…
BAT机器学习面试1000题系列(271-275)
271.SVM、LR、决策树的对比。模型复杂度:SVM支持核函数,可处理线性非线性问题;LR模型简单,训练速度快,适合处理线性问题;决策树容易过拟合,需要进行剪枝 损失函数:SVM hinge loss; LR …
BAT机器学习面试1000题系列(121-125题)
121.Sigmoid、Tanh、ReLu这三个激活函数有什么缺点或不足,有没改进的激活函数 @我愛大泡泡,来源:http://blog.csdn.net/woaidapaopao/article/details/77806273 122.怎么理解决策树、xgbo…
还没有评论