提交作业
1.简述人工智能、机器学习和深度学习三者的联系与区别。
机器学习是一种实现人工智能的方法,深度学习是一种实现机器学习的技术。用圆图来展示就是,最外的圆是人工智能,里面一个是机器学习,最里面的圆是深度学习。
如下图:
2. 全连接神经网络与卷积神经网络的联系与区别。
卷积神经网络的输入输出以及训练的流程和全连接神经网络也基本一致,全连接神经网络的损失函数以及参数的优化过程也都适用于卷积神经网络。
全连接神经网络中,每相邻两层之间的节点都有边相连,于是会将每一层的全连接层中的节点组织成一列,这样方便显示连接结构;而对于卷积神经网络,相邻两层之间只有部分节点相连。所以得出全连接神经网络和卷积神经网络的唯一区别就是神经网络相邻两层的连接方式
3.理解卷积计算。
以digit0为例,进行手工演算。
from sklearn.datasets import load_digits #小数据集8*8
digits = load_digits()
4.理解卷积如何提取图像特征。
读取一个图像;
以下矩阵为卷积核进行卷积操作;
显示卷积之后的图像,观察提取到什么特征。
1 | 0 | -1 |
1 | 0 | -1 |
1 | 0 | -1 |
1 | 1 | 1 |
0 | 0 | 0 |
-1 | -1 | -1 |
-1 | -1 | -1 |
-1 | 8 | -1 |
-1 | -1 | -1 |
卷积API
scipy.signal.convolve2d
tf.keras.layers.Conv2D
from scipy.signal import convolve2d from PIL import Image from pylab import * q=np.array([[1,0,-1], [1,0,-1], [1,0,-1]]) #设置第一个的卷积和 w=np.array([[1,1,1], [0,0,0], [-1,-1,-1]]) #设置第二个的卷积和 e=np.array([[-1,-1,-1], [-1,8,-1], [-1,-1,-1]]) #设置第一个的卷积和 img= array(Image.open("firedragon.jpg")) imshow(img) plt.show() img2= array(Image.open("firedragon.jpg").convert('L')) imshow(img2) plt.show() r0=convolve2d(img2,q,boundary='symm',mode='same')#把图像的q数组和设计好的卷积和作二维卷积运算,设计边界处理方式为symm r1=convolve2d(img2,w,boundary='symm',mode='same') r2=convolve2d(img2,e,boundary='symm',mode='same') imshow(r0) plt.show() imshow(r1) plt.show() imshow(r2) plt.show()
原图(喷火龙X形态):
灰度处理后:
第一次卷积后:
第二次卷积:
第三次卷积:
5. 安装Tensorflow,keras
6. 设计手写数字识别模型结构,注意数据维度的变化。
import os os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense, Dropout, Flatten, Conv2D, MaxPool2D # 导入上一题所下载的包 model = Sequential() # 首先建立起模型 model.add(Conv2D(filters=16,kernel_size=(5, 5),padding='same',input_shape=(28, 28, 1),activation='relu'))# 一层卷积 model.add(MaxPool2D(pool_size=(2, 2)))# 池化层1 model.add(Dropout(0.25)) model.add(Conv2D(filters=32,kernel_size=(5, 5),padding='same',activation='relu'))# 二层卷积 model.add(MaxPool2D(pool_size=(2, 2)))# 池化层2 model.add(Dropout(0.25)) model.add(Conv2D(filters=64,kernel_size=(5, 5),padding='same',activation='relu'))# 三层卷积 model.add(Flatten()) # 平坦层 model.add(Dense(128, activation='relu')) # 全连接层 model.add(Dropout(0.25)) model.add(Dense(10, activation='softmax')) # 激活函数 model.summary()
运行后: