【446】Deep Learning
ref: 深度学习基础介绍 机器学习11 神经网络算法应用上
ref: 深度学习基础介绍 机器学习12 神经网络算法应用下
ref: 神经网络NN算法(应用篇)
1. 组成部分:输入层(input layer),隐藏层(hidden layer),输出层(output layer)
2. 每层由单元(units)组成(圆圈)
3. input layer 是由训练集的实例特征向量传入
4. 经过连接结点的权重(weight)传入下一层,一层的输出是下一层的输入
5. hidden layer 的个数是任意的,input layer 有一层,output layer 有一层
6. 每个 unit 也可以被称作神经结点,根据生物学来源定义
7. 以上为2层的神经网络(输入层不算)
8. 一层中加权的求和,然后根据非线性方程转化输出
9. 作为多层向前神经网络,理论上,如果有足够多的隐藏层(hidden layers)和足够大的训练集,可以模拟任何方程
设计神经网络结构
1. 使用神经网络训练数据之前,必须确定神经网络的层数,以及每层单元的个数
2. 特征向量在被传入输入层时通常被先标准化(normalize)到0和1之间(为了加速学习过程)
3. 离散型变量可以被编码成每一个输入单元对应一个特征值可能赋的值
比如:特征值A可能取三个值(a0, a1, a2),可以使用3个输入单元来代表A
- 如果 A=a0,那么代表 a0 的单元值就取1,其他取0;
- 如果 A=a1,那么代表 a1 的单元值就取1,其他取0,以此类推
4. 神经网络既可以用来做分类(classification)问题,也可以解决回归(regression)问题
- 对于分类问题,如果是2类,可以用一个输出单元表示(0和1分别代表2类)
- 如果多于2类,每一个类别用一个输出单元表示
- 所以输出层的单元数量通常等于类别的数量
- 没有明确的规则来设计最好有多少个隐藏层
- 根据实验测试和误差,以及准确度来试验并改进
5. 交叉验证方法(Cross-Validation)
K-fold cross validation
上图分成3分
- 第一次,后两个训练,第一个测试
- 第二次,两边两个驯良,中间测试
- 第三次,前两个训练,最后一个测试
6. Backpropagation 算法
6.1 通过迭代性的来处理训练集中的实例
6.2 对比经过神经网络后输入层预测值(predicted value)与真实值(target value)之间
6.3 反方向(从 输出层 => 隐藏层 => 输入层)来以最小化误差(error)来更新每个连接的权重(weight)
6.4 算法详细介绍
- 输入:D:数据集,l 学习率(learning rate),一个多层向前神经网络
- 输出:一个训练好的神经网络(a trained neural network)
- 初始化权重(weights)和偏向(bias):随机初始化在 -1 到 1 之间,或者 -0.5 到 0.5 之间,每个单元有一个偏向对于每一个训练实例 X,执行以下步骤:
6.4.1 由输入层向前传送,计算后面 units 的值
通过下面公式实现:
Ij=∑iωijOi+Θj
其中:
i —— 对应前面的单元,j 对应后面的单元
ωij —— 为权重
Oi —— 为前一层的单元值
Θj —— 为偏向 bias
Ij —— 为计算结果
公式实现如下图所示:
激活函数
Oj=11+e−Ij
Sigmoid 函数,激活函数
其中:
Oj —— 为实际的计算值
6.4.2 根据误差(error)反向传送
1) 对于输出层:(求导实现的)
Errj=Oj(1−Oj)(Tj−Oj)
其中:
Tj —— 为真实值
2) 对于隐藏层:(求导实现的)
Errj=Oj(1−Oj)∑kErrkωjk
其中:
Errk —— 为前面一层,相当于后面一层的误差
ωjk —— 为前面一层,相当于后面一层的权重
3) 权重更新:
Δωij=(l)ErrjOi
ωij=ωij+Δωij
其中:
l —— 为学习率,逐渐减小,比较优化
4) 偏向更新:
ΔΘj=(l)Errj
Θj=Θj+ΔΘj
其中:
i —— 对应前面的单元,j 对应后面的单元
6.4.3 终止条件
- 权重的更新低于某个阈值
- 预测的错误率低于某个阈值
- 达到预设一定的循环次数
7. 实例介绍
8. 代码实现
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 | # Import `Sequential` from `keras.models` from keras.models import Sequential # Import `Dense` from `keras.layers` from keras.layers import Dense # Initialize the model model = Sequential() # Add input layer # 输入层的 units 为 12 # 隐藏层的 units 为 64 # 激活函数为 relu model.add(Dense( 64 , input_dim = 12 , activation = 'relu' )) # or model.add(Dense(input_dim = 12 , units = 64 , activation = 'relu' )) # second hidden layer model.add(Dense(units = 64 , activation = 'relu' # Add output layer # 输出层的 units 为 10 model.add(Dense( 10 )) # or model.add(Dense(units = 10 , activation = 'softmax' )) |
ref: Keras Tutorial: Deep Learning in Python
ref: Getting started with the Keras Sequential model
ref: Keras HelloWorld
对于上面举例的 NN,可以通过下面代码构建结构
1 2 | model.add(Dense( 2 , input_dim = 3 , activation = 'sigmoid' )) model.add(Dense( 1 , activation = 'sigmoid' )) |
configuration
1 | model. compile (loss = 'categorical_crossentropy' , optimizer = 'adam' , metrics = [ 'accuracy' ]) |
pick the best function
1 | model.fit(x_train, y_train, batch_size = 100 , nb_epoch = 20 ) |
- batch_size:随机分组(多少组)(mini-batch)
batch size = 1, Stochastic gradient descent - nb_epoch:次数(重复的次数)
How to use the neural network (testing):
1 2 3 4 5 6 7 | # case 1 score = model.evaluate(x_test, y_test) print ( 'Total loss on Testing Set:' , score[ 0 ]) print ( 'Accuracy of Testing Set:' , score[ 1 ]) # case 2 result = model.predict(x_test) |
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
· 探究高空视频全景AR技术的实现原理
· 理解Rust引用及其生命周期标识(上)
· 浏览器原生「磁吸」效果!Anchor Positioning 锚点定位神器解析
· DeepSeek 开源周回顾「GitHub 热点速览」
· 记一次.NET内存居高不下排查解决与启示
· 物流快递公司核心技术能力-地址解析分单基础技术分享
· .NET 10首个预览版发布:重大改进与新特性概览!
· .NET10 - 预览版1新功能体验(一)