人工智能入门

一、安装

tensorflow安装 https://blog.csdn.net/qq_33505204/article/details/81584257

pytorch安装命令参考https://pytorch.org

二、keras分类IMDB

1.参数

batch_size:算梯度下降的数据分支的大小

iterations:一个epoch中训练batch的次数,BP算法更新参数。

epochs:训练完全部样本一次

optimizer:优化算法

如何选择优化算法:https://www.cnblogs.com/guoyaohua/p/8542554.html

如果数据是稀疏的,就用自适应方法,即 Adagrad, Adadelta, RMSprop, Adam。

RMSprop, Adadelta, Adam 在很多情况下的效果是相似的。

Adam 就是在 RMSprop 的基础上加了 bias-correction 和 momentum,

随着梯度变的稀疏,Adam 比 RMSprop 效果会好。

整体来讲,Adam 是最好的选择

很多论文里都会用 SGD,没有 momentum 等。SGD 虽然能达到极小值,但是比其它算法用的时间长,而且可能会被困在鞍点

如果需要更快的收敛,或者是训练更深更复杂的神经网络,需要用一种自适应的算法。

 

model.compile (optimizer=Adam(lr=1e-4), loss=’binary_crossentropy’, metrics=[‘accuracy’])

原文https://blog.csdn.net/WWWWWWGJ/article/details/86409329

optimizer:优化器,如Adamx

loss:计算损失,这里用的是交叉熵损失

metrics: 列表,包含评估模型在训练和测试时的性能的指标,典型用法是metrics=[‘accuracy’]。如果要在多输出模型中为不同的输出指定不同的指标,可向该参数传递一个字典,例如metrics={‘output_a’: ‘accuracy’}

posted @ 2019-10-03 13:04  Stretching_cat  阅读(165)  评论(0编辑  收藏  举报