1. 逻辑回归是一种监督式的学习算法。
[ 监督式学习算法有两组变量:预测变量(自变量x)和目标变量(因变量y),通过这些变量(x,y),搭建一个可以由已知的预测变量值x,得到对应的目标变量值y。
重复训练这个模型,直到能够在训练数据集上达到预定的准确度。]
2. 逻辑回归是一个分类算法。
利用已知的自变量,来预测一个离散型因变量的值(比如0/1, 是/否,真/假)。
每个离散值的概率结果即是我们要预测的,可以通过一个逻辑函数(logit function),自然地,输出值在0到1之间。
odds=p/(1-p) 可能概率/不可能概率 ln(odds) =ln(p/(1-p)) 取对数 logit(p)=ln(p/(1-p))=b0+b1 x1+ b2 x2 +b3 x3 ... +bk xk
通过筛选出特定的参数值使得函数结果最大化来估计参数(普通回归是最小化误差的平方和)。
3. python代码如下:
#import Library from sklearn.linear_model import LogisticRegression #X preditor, Y target #create logistic regression object model=LogisticRegression() model.fit(X,Y) model.score(X,Y) print('Coefficient: \n', model.coef_) print('Intercept: \n', model.intercept_) predicted=model.predict(x_test) #predict y of x_test
4. 待做:
1)安装sklearn包
2)自己创建样本集
3)跑一下这个代码,补充上来
每天进步一点点