上一页 1 2 3 4 5 6 ··· 8 下一页

2019年10月31日

win10 anaconda3 python3.6安装tensorflow keras tensorflow_federated详细步骤及在jupyter notebook运行指定的conda虚拟环境

摘要: 本文链接:https://blog.csdn.net/weixin_44290661/article/details/1026789071. 安装tensorflow keras tensorflow_federated详细步骤因为tensorflow很多依赖及版本兼容性问题,卸载麻烦,所以我是新建 阅读全文

posted @ 2019-10-31 17:03 tan_2810 阅读(1534) 评论(0) 推荐(0) 编辑

2019年9月25日

XGBoost、LightGBM参数讲解及实战

摘要: 本文链接:https://blog.csdn.net/linxid/article/details/80785131XGBoost一、API详解xgboost.XGBClassifier1.1 参数1.1.1 通用参数:booster=‘gbtree’ 使用的提升数的种类 gbtree, gblin 阅读全文

posted @ 2019-09-25 18:37 tan_2810 阅读(2037) 评论(0) 推荐(0) 编辑

linux ip命令和ifconfig命令

摘要: 转载于:https://blog.csdn.net/freeking101/article/details/68939059 From: http://blog.jobbole.com/97270/ From: https://linux.cn/article-3144-1.html From: h 阅读全文

posted @ 2019-09-25 15:41 tan_2810 阅读(724) 评论(0) 推荐(0) 编辑

2019年8月28日

XGBoost和LightGBM的参数以及调参

摘要: 一、XGBoost参数解释 XGBoost的参数一共分为三类: Note: 我下面介绍的参数都是我觉得比较重要的, 完整参数请戳官方文档 1.通用参数 2.Booster参数 n_estimator: 也作num_boosting_rounds 这是生成的最大树的数目,也是最大的迭代次数。 lear 阅读全文

posted @ 2019-08-28 17:11 tan_2810 阅读(702) 评论(0) 推荐(0) 编辑

LGBMClassifier参数

摘要: 本文链接:https://blog.csdn.net/starmoth/article/details/845867091.boosting_type=‘gbdt’# 提升树的类型 gbdt,dart,goss,rf2.num_leavel=32#树的最大叶子数,对比xgboost一般为2^(max 阅读全文

posted @ 2019-08-28 17:11 tan_2810 阅读(8970) 评论(0) 推荐(0) 编辑

LightGBM调参笔记

摘要: 本文链接:https://blog.csdn.net/u012735708/article/details/837497031. 概述在竞赛题中,我们知道XGBoost算法非常热门,是很多的比赛的大杀器,但是在使用过程中,其训练耗时很长,内存占用比较大。在2017年年1月微软在GitHub的上开源了 阅读全文

posted @ 2019-08-28 17:07 tan_2810 阅读(2029) 评论(0) 推荐(0) 编辑

LightGBM 调参方法(具体操作)

摘要: 其实,对于基于决策树的模型,调参的方法都是大同小异。一般都需要如下步骤: 所以,下面的调参例子是基于上述步骤来操作。数据集为一个(4400+, 1000+)的数据集,全是数值特征,metric采用均方根误差。 (PS:还是吐槽一下,lightgbm参数的同义词(alias)实在是太多了,有时候不同的 阅读全文

posted @ 2019-08-28 17:06 tan_2810 阅读(694) 评论(1) 推荐(1) 编辑

2019年8月19日

计算机会议排名等级

摘要: 附件是计算机领域的学术会议等级排名情况,分为A+, A, B, C, L 共5个档次。其中A+属于顶级会议,基本是这个领域全世界大牛们参与和关注最多的会议。国内的研究者能在其中发表论文的话,是很值得骄傲的成就。 A类也是非常好的会议了,尤其是一些热门的研究方向,A类的会议投稿多录用率低,部分A类会议 阅读全文

posted @ 2019-08-19 10:31 tan_2810 阅读(1663) 评论(0) 推荐(0) 编辑

2019年8月3日

Hebye 深度学习中Dropout原理解析

摘要: 1. Dropout简介 1.1 Dropout出现的原因 在机器学习的模型中,如果模型的参数太多,而训练样本又太少,训练出来的模型很容易产生过拟合的现象。 在训练神经网络的时候经常会遇到过拟合的问题,过拟合具体表现在:模型在训练数据上损失函数较小,预测准确率较高;但是在测试数据上损失函数比较大,预 阅读全文

posted @ 2019-08-03 00:46 tan_2810 阅读(184) 评论(0) 推荐(0) 编辑

2019年8月2日

Setting up the data and the model

摘要: Table of Contents: Setting up the data and the model Data Preprocessing Weight Initialization Batch Normalization Regularization (L2/L1/Maxnorm/Dropou 阅读全文

posted @ 2019-08-02 23:24 tan_2810 阅读(329) 评论(0) 推荐(0) 编辑

上一页 1 2 3 4 5 6 ··· 8 下一页

导航