matlab神经网络多分类(模式识别神经网络nprtool)

一、模式识别神经网络

在matlab命令窗口输入:nnstart 或 nprtool 就可以进入matlab神经网络GUI  

二、鸢尾花数据集iris示例

1.输入数据集,划分训练集、测试集

load fisheriris;
[m,n]=size(meas);
data=zeros(m,n+1);
data(:,1:n)=meas;
for i=1:m                             %将字符串类别标签用数值形式表示
    if strcmp(species{i},'setosa')      %strcmp('A','B')用于比较字符串,找出特定的字符串;类比find(a==b)用来找出特定数值
        data(i,n+1)=1;
    elseif strcmp(species{i},'versicolor')
        data(i,n+1)=2;
    elseif strcmp(species{i},'virginica')
        data(i,n+1)=3;
    end
end
%选择训练样本个数 num_train = 60;                 %共150个样本,60个训练集,90个测试集 %构造随机选择序列 choose = randperm(length(data)); %随机种子打乱数据样本的顺序 train_data = data(choose(1:num_train),:); %随机选取60个样本 label_temp = train_data(:,end); %提取训练数据的标签 train(:,end)提取最后一列; label_train = zeros(length(train_data),3); %创建矩阵以储存向量形式的标签;
%把输出分类标签1,2,3 改为工具箱要求的格式 1=[1 0 0],2=[0 1 0],3=[0 0 1] for i = 1:length(train_data) label_train(i,label_temp(i)) = 1; end train_data = train_data(:,1:end-1)'; %提取数据集特征(剔除标签),并进行转置(转置也可以不必,后续GUI中转化为行形式即可) label_train = label_train'; %将向量形式表示的标签进行转置(也而不必,理由同上)
test_data = data(choose(num_train+1:end),:); %提取测试集数据 label_temp = test_data(:,end); %提取测试集数据的标签 label_test = zeros(length(test_data),3); %创建矩阵,准备存放向量形式的测试数据的标签 %把输出分类标签改为工具箱要求的格式 for i = 1:length(test_data) label_test(i,label_temp(i)) = 1; end test_data = test_data(:,1:end-1)'; %提取测试数据的特征,并进行转置 label_test = label_test'; %提取测试数据的标签,并进行转置

2. 三种方法进行模式识别神经网络搭建

2.1 手动编写m函数法

法1操作方法:手动编写m函数如下(借鉴参考资料)

%有三种方式
%法1.命令窗口输入nnstart,选择pattern recognition app,用matlab自带GUI进行网络设置(最简单)
%法2.完成法1后,自动生成代码,将创建网络的代码用m文件保存,下次要调用该网络可直接调用该m文件
%法3.编写如下代码
% Create a Pattern Recognition Network
hiddenLayerSize = 10;                         %隐藏层神经元个数设置为10
net = patternnet(hiddenLayerSize);            %创建模式识别神经网络patternnet
% 将训练集再按比例70:15:15分为训练集、验证集、测试集
net.divideParam.trainRatio = 70/100;
net.divideParam.valRatio = 15/100;
net.divideParam.testRatio = 15/100;
% Train the Network
[net,tr] = train(net,train_data,label_train); %tr为训练过程参数?
% Test the Network
predict = net(test_data);       %得到每个样本属于第一类、第二类、第三类的概率
[~,predict] = max(predict);     %选择概率最大的类别作为某一个测试样本的类别
%% show the result --testings
fig=figure;
gscatter(test_data(1,:),test_data(2,:),predict);
[~,label_test] = max(label_test);
accuracy = length(find(predict==label_test))/length(test_data);
title(['predict the testing data and the accuracy is :',num2str(accuracy)]);

法1结果:

准确率:93.3%,分类效果不错。

2.2 GUI法

法2操作方法:

输入nnstart:四种形式的神经网络:拟合/分类/聚类/时间序列。分类选择nprtool

输入nprtool:

 注意这里的samples是按行还是按列,如果选择错误则无法点击next 

 法2结果:训练集的混淆矩阵

可以重点看训练集(分为0.7:0.15:0.15)中的测试集 (是否有必要将训练集也这么分?);

得到准确率为88.9%,较高,分类效果不错。

法2操作:加入测试集

法2结果:测试集的混淆矩阵

准确率为96.7%,分类效果很好。

2.3 自动生成代码法

法3操作方法:由法1GUI得到的网络自动生成m代码如下,之后可直接调用该m文件,不需要用GUI。

操作如下:

点击Simple Scrip即可自动生成代码

代码如下:

% Solve a Pattern Recognition Problem with a Neural Network
% Script generated by Neural Pattern Recognition app
% Created 21-May-2020 20:32:42
%
% This script assumes these variables are defined:
%
%   train_data - input data.
%   label_train - target data.

x = train_data;
t = label_train;

% Choose a Training Function
% For a list of all training functions type: help nntrain
% 'trainlm' is usually fastest.
% 'trainbr' takes longer but may be better for challenging problems.
% 'trainscg' uses less memory. Suitable in low memory situations.
trainFcn = 'trainscg';  % Scaled conjugate gradient backpropagation.

% Create a Pattern Recognition Network
hiddenLayerSize = 10;
net = patternnet(hiddenLayerSize);

% Setup Division of Data for Training, Validation, Testing
net.divideParam.trainRatio = 70/100;
net.divideParam.valRatio = 15/100;
net.divideParam.testRatio = 15/100;

% Train the Network
[net,tr] = train(net,x,t);

% Test the Network
y = net(x);
e = gsubtract(t,y);
performance = perform(net,t,y)
tind = vec2ind(t);
yind = vec2ind(y);
percentErrors = sum(tind ~= yind)/numel(tind);

% View the Network
view(net)

% Plots
% Uncomment these lines to enable various plots.
%figure, plotperform(tr)
%figure, plottrainstate(tr)
%figure, ploterrhist(e)
%figure, plotconfusion(t,y)
%figure, plotroc(t,y)

 

参考资料:

1.监督算法之BP,SVM,adaboost的非线性多分类实验,https://blog.csdn.net/on2way/article/details/48006539,作者:on2way

2.matlab神经网络工具箱:https://blog.csdn.net/on2way/article/details/47428201

3.adaboost分类:https://www.cnblogs.com/litthorse/p/9332370.html

posted @ 2020-05-21 21:20  Feynmania  阅读(9124)  评论(0编辑  收藏  举报