sklearn中的SGDClassifier

常用于大规模稀疏机器学习问题上

1.优点:

高效

简单

2.可以选择损失函数

  • loss=”hinge”: (soft-margin)线性SVM.
  • loss=”modified_huber”: 带平滑的hinge loss.
  • loss=”log”: logistic回归

3.通过penalty参数,可以设置对应的惩罚项。SGD支持下面的罚项:

  • penalty=”l2”: 对coef_的L2范数罚项
  • penalty=”l1”: 对coef_的L1范数罚项
  • penalty=”elasticnet”: L2和L1的convex组合; (1 - l1_ratio) * L2 + l1_ratio * L1

详见:http://d0evi1.com/sklearn/sgd/

posted @ 2018-03-29 21:26  stAr_1  阅读(4897)  评论(0编辑  收藏  举报