05 2018 档案

摘要:LightGBM是微软旗下DMTK推出的Gradient Boosting框架,因为其快速高效,以后或许会成为数据挖掘竞赛中的又一个大杀器。地址:https://github.com/Microsoft/LightGBM 。 该项目刚开源就被受到热捧:三天之内GitHub上被star了1000+次, 阅读全文
posted @ 2018-05-22 10:50 静悟生慧 阅读(1692) 评论(0) 推荐(0) 编辑
摘要:问题的根本:windows读取文件可以用\,但在字符串里面\被作为转义字符使用, python在描述路径时有两种方式: 'd:\\a.txt',转义的方式 r'd:\a.txt',声明字符串不需要转义 这样就实现了python在windows系统中用\来访问; 其实这样比较麻烦的是不是,下面对几种情 阅读全文
posted @ 2018-05-21 21:11 静悟生慧 阅读(10183) 评论(0) 推荐(0) 编辑
摘要:算法/数据工程师必备技能 基础知识 线性代数 矩阵理论 概率论 随机过程 图论 数值分析 最优化理论 机器学习 统计学习方法 数据挖掘 平台 Linux 语言 Python Linux shell 基础库 numpy pandas sklearn scipy matplotlib or seabor 阅读全文
posted @ 2018-05-17 22:12 静悟生慧 阅读(279) 评论(0) 推荐(0) 编辑
摘要:这样,就可以在默认显卡被占用(第一块显卡)时,选择其他显卡进行测试了。 阅读全文
posted @ 2018-05-13 16:13 静悟生慧 阅读(569) 评论(0) 推荐(0) 编辑
摘要:交叉熵(Cross-Entropy) 交叉熵是一个在ML领域经常会被提到的名词。在这篇文章里将对这个概念进行详细的分析。 1.什么是信息量? 2.什么是熵? 可以看出,当两种取值的可能性相等时,不确定度最大(此时没有任何先验知识),这个结论可以推广到多种取值的情况。在图中也可以看出,当p=0或1时, 阅读全文
posted @ 2018-05-10 16:59 静悟生慧 阅读(318) 评论(0) 推荐(0) 编辑
摘要:我从零开始训练了GoogLeNet模型。 但它没有给我带来希望的结果。 作为替代,我想对我的数据集中的GoogLeNet模型进行微调。 有谁知道我应该遵循什么步骤? 我从零开始训练了GoogLeNet模型。 但它没有给我带来希望的结果。 作为替代,我想对我的数据集中的GoogLeNet模型进行微调。 阅读全文
posted @ 2018-05-08 16:45 静悟生慧 阅读(498) 评论(0) 推荐(0) 编辑
摘要:参见知乎问题! https://www.zhihu.com/question/275774218 很多框架都会有一个问题,当卷积 weight NaN 之后,卷积的 output 会变成 NaN。然后过了一个 FC,就变成正常的数字了,但是这时候所有 channel 的 output 值相同。 建议 阅读全文
posted @ 2018-05-08 16:15 静悟生慧 阅读(2214) 评论(0) 推荐(0) 编辑
摘要:第一: 可以选择在将数据转换成lmdb格式时进行打乱; 设置参数--shuffle=1;(表示打乱训练数据) 默认为0,表示忽略,不打乱。 打乱的目的有两个:防止出现过分有规律的数据,导致过拟合或者不收敛。 在caffe中可能会使得,在模型进行测试时,每一个测试样本都输出相同的预测概率值。 或者,直 阅读全文
posted @ 2018-05-06 10:20 静悟生慧 阅读(1184) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示