利用TensorFlow识别手写的数字---基于Softmax回归

1 MNIST数据集

MNIST数据集主要由一些手写数字的图片和相应的标签组成,图片一共有10类,分别对应从0-9,共10个阿拉伯数字。原始的MNIST数据库一共包含下面4个文件,见下表。

训练图像一共有60000张,供研究人员训练出合适的模型。测试图像一共有10000张,供研究人员测试训练的模型的性能。

2 Softmax 回归

Softmax回归是一个线性的多类分类模型,实际上它是直接从Logistic回归模型转化而来的。区别在于Logistic 回归模型为两类分类模型,而Softmax 模型为多类分类模型。

在手写体识别问题中,一共有10个类别(0~9),我们希望对输入的图像计算它属于每个类别的概率。如属于9的概率为70%,属于1的概率为10%等。最后模型预测的结果就是概率最大的那个类别。

先来了解什么是Softmax函数。Softmax函数的主要功能是将各个类别的“打分”转化成合理的概率值。例如,一个样本可能属于三个类别:第一个类别的打分为a,第二个类别的打分为b,第三个类别的打分为c。打分越高代表属于这个类别的概率越高,但是打分本身不代表概率,因为打分的值可以是负数,也可以很大,但概率要求值必须在0~1,并且三类的概率加起来应该等于1。那么,如何将(a,b,c)转换成合理的概率值呢?方法就是使用Softmax函数。例如,对(a,b,c)使用Softmax函数后,相应的值会变成如下所示的形式:

这三个数值都在0~1之间,并且加起来正好等于1,是合理的概率表示。

假设x是单个样本的特征,W、b是Softmax模型的参数。在MNIST数据集中,x就代表输入图片,它是一个784维的向量,而W是一个矩阵,它的形状为(784,10),b是一个10维的向量,10代表的是类别数。Softmax模型的第一步是通过下面的公式计算各个类别的Logit:

Logit 同样是一个10维的向量,它实际上可以看成样本对应于各个类别的“打分”。接下来使用Softmax函数将它转换成各个类别的概率值:

3 tensorflow 实现

# -*- coding: utf-8 -*-

import tensorflow as tf

#导入mnist教学的模块
from tensorflow.examples.tutorials.mnist import input_data

#读入mnist数据
mnist = input_data.read_data_sets("MNIST_data/",one_hot = True)

#创建x,x是一个占位符,代表待识别的图片
x = tf.placeholder(tf.float32,[None,784])

# w是softmax模型的参数,将一个784的输入转换为一个10位的输出
w = tf.Variable(tf.zeros([784,10]))

# b是又一个softmax的参数,一般叫做“偏置项
b = tf.Variable(tf.zeros([10]))

# y表示模型的输出
y = tf.nn.softmax(tf.matmul(x,w) + b)

# y_是实际的图像标签,同样以占位符表示
y_ = tf.placeholder(tf.float32,[None,10])

#根据y和y_构造交叉熵
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_ * tf.log(y)))

#有了交叉熵,就可以使用梯度下降法针对模型的参数(w和b)进行优化
train_step = tf.train.GradientDescentOptimizer(0.01).minimize(cross_entropy)

#创建一个Session。只有在Session中才能运行优化步骤train_step
sess = tf.InteractiveSession()
#运行之前必须要初始化所有的变量,分配内存
tf.global_variables_initializer().run()

# 进行1000步梯度下降
for _ in range(1000):
    #在mnist.train中取100个训练数据
    #batch_xs是形状为(100,784)的图像数据,batch_ys是形如(100,10)的实际标签
    #batch_xs与batch_ys分别对应着x和y_两个占位符
    batch_xs,batch_ys = mnist.train.next_batch(100)
    #在Session中运行train_step,运行时要传入占位符的值
    sess.run(train_step,feed_dict={x:batch_xs,y_:batch_ys})

#正确的预测结果
correct_prediction = tf.equal(tf.argmax(y,1),tf.argmax(y_,1))
#计算预测准确率
accuracy = tf.reduce_mean(tf.cast(correct_prediction,tf.float32))
#在Session中运行Tensor可以得到Tensor的值
#这里是获取最终模型的准确率
print(sess.run(accuracy,feed_dict={x:mnist.test.images,y_:mnist.test.labels}))

注:

posted @ 2019-05-04 16:32  珠峰上吹泡泡  阅读(443)  评论(0编辑  收藏  举报