02 2023 档案

摘要:极限提升树XGBoost(Extreme Gradient Boosting,XGB,发音/æks-g-boost/)是基于梯度提升树GBDT全面升级的新一代提升算法,也是提升家族中最富盛名、最灵活、最被机器学习竞赛所青睐的算法。不同于我们之前学过的任意单一算法,XGBoost是一个以提升树为核心的算法系统,它覆盖了至少3+建树流程、10+损失函数,可以实现各种类型的梯度提升树,灵活性无与伦比。同时,XGBoost天生被设计成支持巨量数据,因此可以自由接入GPU/分布式/数据库等系统、还创新了众多工程上对传统提升算法进行加速的新方法。可以说,XGBoost是21世纪中Boosting算法的又一个里程碑,它开创了后GBDT时代中Boosting算法的新辉煌。 阅读全文
posted @ 2023-02-12 12:22 lotuslaw 阅读(291) 评论(0) 推荐(0) 编辑
摘要:批次之间具有堆叠的LSTM。 阅读全文
posted @ 2023-02-09 00:08 lotuslaw 阅读(71) 评论(0) 推荐(0) 编辑
摘要:LSTM多步预测-多步预测的LSTM网络。 阅读全文
posted @ 2023-02-09 00:06 lotuslaw 阅读(1040) 评论(0) 推荐(0) 编辑
摘要:LSTM多步预测-静态模型预测。 阅读全文
posted @ 2023-02-09 00:04 lotuslaw 阅读(157) 评论(0) 推荐(0) 编辑
摘要:LSTM多变量-定义&训练模型。 阅读全文
posted @ 2023-02-09 00:03 lotuslaw 阅读(136) 评论(0) 推荐(0) 编辑
摘要:LSTM多变量-LSTM数据预处理_tmp。 阅读全文
posted @ 2023-02-09 00:01 lotuslaw 阅读(89) 评论(0) 推荐(0) 编辑
摘要:LSTM多变量-LSTM数据预处理。 阅读全文
posted @ 2023-02-09 00:00 lotuslaw 阅读(141) 评论(0) 推荐(0) 编辑
摘要:LSTM多变量-数据输出。 阅读全文
posted @ 2023-02-08 23:58 lotuslaw 阅读(43) 评论(0) 推荐(0) 编辑
摘要:LSTM多变量-预处理。 阅读全文
posted @ 2023-02-08 23:56 lotuslaw 阅读(34) 评论(0) 推荐(0) 编辑
摘要:更健壮的LSTM案例. 阅读全文
posted @ 2023-02-08 23:55 lotuslaw 阅读(28) 评论(0) 推荐(0) 编辑
摘要:完整的LSTM案例. 阅读全文
posted @ 2023-02-08 23:53 lotuslaw 阅读(132) 评论(0) 推荐(0) 编辑
摘要:LSTM模型开发. 阅读全文
posted @ 2023-02-08 23:51 lotuslaw 阅读(100) 评论(0) 推荐(0) 编辑
摘要:观测值缩放. 阅读全文
posted @ 2023-02-08 23:50 lotuslaw 阅读(14) 评论(0) 推荐(0) 编辑
摘要:时间序列转监督学习数据. 阅读全文
posted @ 2023-02-08 23:48 lotuslaw 阅读(17) 评论(0) 推荐(0) 编辑
摘要:时间序列转换成稳定数据. 阅读全文
posted @ 2023-02-08 23:48 lotuslaw 阅读(35) 评论(0) 推荐(0) 编辑
摘要:香皂销售预测引入。 阅读全文
posted @ 2023-02-08 23:46 lotuslaw 阅读(66) 评论(0) 推荐(0) 编辑

more_horiz
keyboard_arrow_up light_mode palette
选择主题