学习率动态修改
# step lr_scheduler = tf.keras.optimizers.schedules.ExponentialDecay( initial_learning_rate=lr_rate, decay_steps=10, decay_rate=0.96) opt = tf.keras.optimizers.Adamax(lr=lr_scheduler, beta_1=0.9, beta_2=0.999, epsilon=1e-09) # epoch修改学习率 def scheduler(epoch): if epoch < 5: return lr_rate else: lr = tf.maximum(lr_rate * tf.math.exp(0.1 * (5 - epoch)),1e-4) return lr.numpy() reduce_lr = tf.keras.callbacks.LearningRateScheduler(scheduler) reduce_lr2 = tf.keras.callbacks.ReduceLROnPlateau( monitor='val_dice_coef', factor=0.5, patience=3, verbose=0, mode='max', min_delta=1e-4, cooldown=0, min_lr=1e-4,) s_model.fit(train_db, epochs=epochs, validation_data=test_db, callbacks=[reduce_lr2,early_stoping, history2])
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构