【机器学习】李宏毅机器学习-Keras-Demo-神经网络手写数字识别与调参

参考:

编程环境:

  • 操作系统:win7 - CPU

  • anaconda-Python3-jupyter notebook

  • tersonFlow:1.10.0

  • Keras:2.2.4

背景:

  • 视频里宝可梦大师提供的部分参数设置不能得到好的结果,这里记录一下后续调参

1-载入数据报错的问题:

2-测试程序是否正常

  • 打印一下某个矩阵的形状,没有报错一切正常

3-运行原始代码

  • 按照李宏毅老师视频里讲的全是坑代码运行看看效果


4-对神经网络进行调参

改动地方主要为:

  • 激励函数由sigmoid改为relu

  • loss function由mse改为categorical_crossentropy

  • 增加了Dropout,防止过拟合

  • 改动后的代码为

# 选model
model = Sequential()
# 搭建神经网络
# 改动:4点
# 1-中间层units由633改为700
# 2-激活函数由sigmoid改为relu
# 3-原四个Dense,删去一个中间层,只留三个Dense
# 4-在三个Dense的每两个Dense中间加入Dropout
# batch-epochs=100,20时,三Dense好于四Dense
# batch-epochs=1,2时,三Dense好于四Dense
model.add(Dense(input_dim=28*28, units=700, activation='relu'))
model.add(Dropout(0.2))
model.add(Dense(units=700, activation='relu'))
model.add(Dropout(0.2))
model.add(Dense(units=10, activation='softmax'))
# 自选loss Function等参数
# 改动:1点
# 1-loss function由mse改为categorical_crossentropy
model.compile(loss='mse', optimizer=SGD(lr=0.1), metrics=['accuracy'])
# train模型
# 改动:1点
# 1-参数列表最后加一个validation_split(交叉验证?)
# 2-batch-size=1, epochs=2时,acc变为0.9314(3个Dense),0.9212(4个Dense)
model.fit(x_train, y_train, batch_size=1, epochs=2, validation_split=0.05)
# 测试结果,并打印accuracy
result = model.evaluate(x_test, y_test)
print('\nTest loss:', result[0])
print('\nAccuracy:', result[1])

5-结果分析

  • 貌似相同参数,不同train回合,得到的结果还有细微的差别。。。

总结:

  • 无论如何,总算DL-hello world达成了,好的开始就是成功的一半,再接再厉!

END

posted @   anliux  阅读(1296)  评论(0编辑  收藏  举报
编辑推荐:
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 从 HTTP 原因短语缺失研究 HTTP/2 和 HTTP/3 的设计差异
阅读排行:
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 使用C#创建一个MCP客户端
· ollama系列1:轻松3步本地部署deepseek,普通电脑可用
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· 按钮权限的设计及实现
点击右上角即可分享
微信分享提示