linux xlearn安装
xlearn的优势:
- 1.通用性好,包括主流的算法(lr, fm, ffm 等),用户不用再切换于不同软件之间
- 2.性能好,测试 xLearn 可以比 libfm 快13倍,比 libffm 和 liblinear 快5倍
- 3.易用性和灵活性,xLearn 提供简单的 python 接口,并且集合了机器学习比赛中许多有用的功能
- 4.可扩展性好。xLearn 提供 out-of-core 计算,利用外存计算可以在单机处理 1TB 数据
二、xlearn安装:巨简单
目前xlearn只支持,Linux和Mac,Windows用户可能要等等了。以下操作在Ubuntu系统进行。
2.1安装GCC(或Clang)和CMake:
建议安装GCC,Clang下载文件大,而且安装过程出现问题,便直接安装的GCC。
安装gcc
sudo apt-get install build-essential
测试是否安装成功: gcc --version
出现以下界面代表安装成功:
gcc (Ubuntu 5.4.0-6ubuntu1~16.04.9) 5.4.0 20160609
Copyright (C) 2015 Free Software Foundation, Inc.
安装cmake
我实在不明白为什么有些教程要下载文件,等等骚操作,那么麻烦。一行搞定。
sudo apt-get install cmake
测试是否安装成功: cmake --version
出现以下界面代表安装成功:
cmake version 3.5.1
CMake suite maintained and supported by Kitware (kitware.com/cmake).
2.2 安装xlearn:
sudo pip install xlearn
这个地方注意下,如果安装了Anaconda,确认xlearn是否安装在你所运行的Anaconda的虚拟环境中。找到安装包的位置可以查看下,如果显示安装成功,却不能import xlearn
,八成是这个问题。
三、xlearn实战:
简单实战,每一行都有详细的注释。主要是简单学会使用模型,并没有对特征过多分析。
3.1 快速入门
import xlearn as xl
ffm_model = xl.create_ffm()
# 训练集
ffm_model.setTrain("small_train.txt")
# 设置验证集
ffm_model.setValidate("small_test.txt")
# 设置参数
param = {'task':'binary','lr':0.2,'lambda':0.002}
# 设置不同的评价指标
# 分类问题:acc(Accuracy);prec(precision);f1(f1 score);auc(AUC score)
param1 = {'task':'binary','lr':0.2,'lambda':0.002,'metric':'rmse'}
# 回归问题:mae,mape,rmsd(RMSE)
param2 = {'task':'binary','lr':0.2,'lambda':0.002, 'metric':'rmse'}
# 训练模型
ffm_model.fit(param, "model.out")
# 测试集
ffm_model.setTest("small_test.txt")
# 输出样本预测概率,范围(-1,1)
ffm_model.predict("model.out","output.txt")
# 设置预测概率范围为(0,1)
ffm_model.setSigmoid()
ffm_model.predict("model.out","output.txt")
# 转化为二分类(0,1),没有阈值吗???
ffm_model.setSign()
ffm_model.predict("model.out","output.txt")
# 模型保存为txt格式,
ffm_model.setTXTModel("model.txt")
3.2 更进一步:
# 选择不同的机器学习算法
# FM,LR可以使用csv和libsvm格式,FFM应该接受libffm格式
fm_model = xl.create_fm()
lr_model = xl.create_linear()
# 设置交叉验证(Cross Validation)
ffm_model = xl.create_ffm()
ffm_model.setTrain("train.txt")
param = {'task':'binary','lr':0.2,'lambda':0.002,'fold':3}
# 默认5-folds,可通过param设置
ffm_model.cv(param)
# 设置优化算法:SGD,AdaGrad,Ftrl(Follow-the-Regularized-Leader)
param3 = {'task':'binary','lr':0.002,'lambda':0.01,'opt':'ftrl'}
# Ftrl的额外参数
param = {'alpha':0.002,'beta':0.8,'lambda_1':0.001,'lambda_2':1.0}
# 如何自动进行超参数训练
# 设置Epoch数量
param4 = {'task':'bianry','lr':0.2,'lambda':0.01,'epoch':3}
# Early stopping,设置提前停止窗口
param5 = {'task':'binary','lr':0.2,'lambda':0.002,'epoch':10,'stop_window':3}
# Lock-Free 训练,可以充分利用多核来加速训练,但是结果具有不确定性,默认开启
ffm_model.disableLockFree() # disable lock-free training
# Instance-wise Normalization,对CTR预测问题,非常有效,但是有损性能
ffm_model.disableNorm() # disable Instance-wise Normalization
# Quite Training 提高训练速度,不计算评指标,只训练模型
ffm_model.setQuiet()
3.3 与Sklearn相结合
建议利用sklearn接口,众多sklearn的功能都能使用。
# 调用Sklearn的API
import numpy as np
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
iris_data = load_iris()
X = iris_data['data']
y = iris_data['target' == 2]
X_train,X_test,y_train, y_test = train_test_split(X,y,test_size=0.3,random_state=0)
linear_model = xl.LRModel(task='binary',init=0.1,epoch=10,lr=0.1,reg_lambda=1.0,opt='sgd')
linear_model.fit(X_train,y_train,eval_set=[X_test, y_test],is_lock_free=False)
y_pred = linear_model.predict(X_test)
版权声明:本文为CSDN博主「linxid」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/linxid/article/details/80382569