1、nips http://nips.cc/

2、在感知器算法中least perturbation principle与梯度下降法的区别

3、quadratic programming QP了解一下

4、SVM的 QP优化形式解与regularization形式解的联系?

7、多分类的logistic回归 的likelihood的写法

8、MAP:Maximum a posteriori 最大后验概率

9、对于SVM和logistic回归中,regularization项的解释?

10、loss function中有exponential和modified huber,了解一下

提到过搜索引擎的ctr model,Click Through Rate,点击通过率(用linear logistic regression)?

11、LBFGS (了解下)对hinge loss function的优化

12、RBF神经网络?

线性分类器:把感知器,SVMlogistic regression 放一起,这节课整体比较简单!