2021年9月1日

TensorFlow 2.0 深度学习实战 —— 详细介绍损失函数、优化器、激活函数、多层感知机的实现原理

摘要: 本文主要介绍了 MSE、MAE、CEE 、Hinge、Huber 等 15 个常用损失函数的计算方式和使用场景,讲解 SGD、AdaGrad、Adam、RMSProp 4类优化器的公式原理,对阶跃激活函数、Sigmoid 激活函数、ReLU激活函数、Leaky ReLU 激活函数、Tanh 激活函数、Softmax激活函数等进行分析。通过分类与回归的使用实例对 MLP 多层感知器的使用进行介绍,对比 Tensorflow 1.x 与 Tensorflow 2.x 在应用上区别。最后,讲解如何使用 dropout 正则化对复杂类型的数据集进行优化处理。 阅读全文

posted @ 2021-09-01 11:13 风尘浪子 阅读(3885) 评论(0) 推荐(0) 编辑

导航