Matlab Classification Learner 使用
介绍
在matlab中,既可以使用函数来对数据进行分类,也使用图形化界面的工具箱来进行分类操作。接下来讲讲如何使用。这里我主要介绍受监督的训练模型分类。
使用此工具箱, 我们可以使用各种分类器来探索受监督的机器学习。同时可以浏览数据、选择功能、指定验证方案、培训模型和评估结果。可以执行自动培训以搜索最佳分类模型类型, 包括决策树、判别分析、支持向量机、逻辑回归、最近邻居和集合分类等等。
-
什么是受监督的机器学习?
通过提供已知的一组输入数据 (观察或示例) 和已知的数据响应 (例如, 标签或类) 来执行受监督的机器学习。使用数据培训模型, 以生成对新数据的响应的预测。若要将模型与新数据一起使用, 或者要了解编程分类, 可以将模型导出到工作区或生成 MATLAB?用于重新创建经过培训的模型的代码。
点击开始自动分类器
我们可以使用Classification Learner对数据进行自动训练并且能选择不同的模型。
我们在APP选项卡中单击Classification Learner即可启动。
新建训练模型
单击New Session建立新模型,出现下图对话框:
-
Step1:选择数据
这里输入的数据必须要参数与标签合一的数据,比如我放入的数据是data,为套管缺陷数据。是一个$286*24$的矩阵,其$1\sim23$列为数据参数,第$24$列为标签,有缺陷为$1$,无缺陷则为$-1$。其中$1\sim200$行为无缺陷数据,所以对于的$24$列都为$-1$,$201\sim286$行为有缺陷数据,所以对于的$24$列都为$1$。
-
Step2:选择预测者与反应者
首先这里放入数据是,我选择了column模式,所以是以列作为读取数据顺序。$1\sim23$列都为数据参数,所以作为Predictor导入。$24$列作为标签,所以作为Response导入。
-
Step3:选择验证模式
这里选择交叉验证(Cross validation),目的是为了得到可靠稳定的模型。在建立PCR 或PLS 模型时,一个很重要的因素是取多少个主成分的问题。用cross validation 校验每个主成分下的PRESS值,选择PRESS值小的主成分数。或PRESS值不再变小时的主成分数。
也可以Holdout验证,随机从最初的样本中选出部分,形成交叉验证数据,而剩余的就当做训练数据。 一般来说,少于原本样本三分之一的数据被选做验证数据。 -
Step4:点击开始
开始训练
新建模型完毕后,可以选择各种类型的分类器进行数据分类。
- Step1:选择PCA参数
我们可以对数据进行PCA降维,也可以调整PCA中的某些参数来调整训练模型。 - Step2:选择分类器类型
这里可以选择SVM分类器、KNN分类器、逻辑回归分类器等等。每种分类器中都可以选择不同的核函数,比如SVM分类器,可以选择Linear核、Quadratic核、cubic核、Gaussian核等。 - Step3:选择扩展设置
在这里我们可以分类器的参数做调节,典型的参数有:惩罚因子等级、核函数缩放因子、参数是否标准化等等。 - Step4:运行
接下来直接运行即可得出训练模型。
训练结果
我这里对所有的SVM模型都进行了运行,可以查看到如下界面。
-
1:分类模型状态
可以查看到当前有100%的准确率,这个准确率是之前使用交叉验证,模型对于自己的分类结果做的验证的准确率。
-
2:数据图表
这里可以对数据各个部分进行可视化分析。
-
3:图表选项
因为目前是24维数据,对于2维图形是无法全部绘制的,所以可以选择对任意两个维度作图。
-
4:导出模型
模型建立完毕后,可以选择导出模型,进行下一步的工作。
预测结果
我将导出的模型对新输入缺陷与非缺陷数据进行识别。代码如下:
%% 开始预测
yfit = trainedClassifier1.predictFcn(testdata);
n=sum(testlabel == yfit)/length(testlabel)*100;
disp('Linear SVM');
disp(n);
yfit = trainedClassifier2.predictFcn(testdata);
n=sum(testlabel == yfit)/length(testlabel)*100;
disp('Quadratic SVM');
disp(n);
yfit = trainedClassifier3.predictFcn(testdata);
n=sum(testlabel == yfit)/length(testlabel)*100;
disp('Cubic SVM');
disp(n);
yfit = trainedClassifier4.predictFcn(testdata);
n=sum(testlabel == yfit)/length(testlabel)*100;
disp('Fine Gaussian SVM');
disp(n);
yfit = trainedClassifier5.predictFcn(testdata);
n=sum(testlabel == yfit)/length(testlabel)*100;
disp('Medium Gaussian SVM');
disp(n);
yfit = trainedClassifier6.predictFcn(testdata);
n=sum(testlabel == yfit)/length(testlabel)*100;
disp('Coarse Gaussian SVM');
disp(n);
结果如下:
Linear SVM
84.2105
Quadratic SVM
84.2105
Cubic SVM
84.2105
Fine Gaussian SVM
86.4662
Medium Gaussian SVM
84.9624
Coarse Gaussian SVM
84.2105