Loading

上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 24 下一页
摘要: TensorFlow训练好的模型以tensorflow原生方式保存成protobuf文件后可以用许多方式部署运行。 阅读全文
posted @ 2022-07-02 19:47 lotuslaw 阅读(210) 评论(0) 推荐(0) 编辑
摘要: 如果使用多GPU训练模型,推荐使用内置fit方法,较为方便,仅需添加2行代码。 阅读全文
posted @ 2022-07-02 17:38 lotuslaw 阅读(108) 评论(0) 推荐(0) 编辑
摘要: 训练过程的耗时主要来自于两个部分,一部分来自数据准备,另一部分来自参数迭代。当数据准备过程还是模型训练时间的主要瓶颈时,我们可以使用更多进程来准备数据。当参数迭代过程成为训练时间的主要瓶颈时,我们通常的方法是应用GPU或者Google的TPU来进行加速。 阅读全文
posted @ 2022-07-02 17:12 lotuslaw 阅读(67) 评论(0) 推荐(0) 编辑
摘要: 模型的训练主要有内置fit方法、内置train_on_batch方法、自定义训练循环,注:fit_generator方法在tf.keras中不推荐使用,其功能已经被fit包含。 阅读全文
posted @ 2022-07-02 14:46 lotuslaw 阅读(45) 评论(0) 推荐(0) 编辑
摘要: 如果模型有多输入或者多输出,或者模型需要共享权重,或者模型具有残差连接等非顺序结构,推荐使用函数式API进行创建,如果无特定必要,尽可能避免使用Model子类化的方式构建模型,这种方式提供了极大的灵活性,但也有更大的概率出错。 阅读全文
posted @ 2022-07-02 12:35 lotuslaw 阅读(93) 评论(0) 推荐(0) 编辑
摘要: tf.keras的回调函数实际上是一个类,一般是在model.fit时作为参数指定,用于控制在训练过程开始或者在训练过程结束,在每个epoch训练开始或者训练结束,在每个batch训练开始或者训练结束时执行一些操作,例如收集一些日志信息,改变学习率等超参数,提前终止训练过程等等。 阅读全文
posted @ 2022-06-29 23:33 lotuslaw 阅读(45) 评论(0) 推荐(0) 编辑
摘要: 深度学习优化算法大概经历了 SGD -> SGDM -> NAG ->Adagrad -> Adadelta(RMSprop) -> Adam -> Nadam 这样的发展历程。 阅读全文
posted @ 2022-06-29 23:11 lotuslaw 阅读(32) 评论(0) 推荐(0) 编辑
摘要: 通常损失函数都可以作为评估指标,如MAE, MSE, CategoricalCrossentropy等也是常用的评估指标,但评估指标不一定可以作为损失函数,例如AUC, Accuracy, Precision。因为评估指标不要求连续可导,而损失函数通常要求连续可导。 阅读全文
posted @ 2022-06-29 22:21 lotuslaw 阅读(50) 评论(0) 推荐(0) 编辑
摘要: 一般来说,监督学习的目标函数由损失函数和正则化项组成。(Objective = Loss + Regularization) 阅读全文
posted @ 2022-06-26 21:10 lotuslaw 阅读(63) 评论(0) 推荐(0) 编辑
摘要: 深度学习模型一般由各种模型层组合而成,tf.keras.layers内置了非常丰富的各种功能的模型层,如果这些内置模型层不能够满足需求,我们也可以通过编写tf.keras.Lambda匿名模型层或继承tf.keras.layers.Layer基类构建自定义的模型层。其中tf.keras.Lambda匿名模型层只适用于构造没有学习参数的模型层。 阅读全文
posted @ 2022-06-26 16:41 lotuslaw 阅读(63) 评论(0) 推荐(0) 编辑
上一页 1 ··· 5 6 7 8 9 10 11 12 13 ··· 24 下一页