05 2018 档案
摘要:LightGBM是微软旗下DMTK推出的Gradient Boosting框架,因为其快速高效,以后或许会成为数据挖掘竞赛中的又一个大杀器。地址:https://github.com/Microsoft/LightGBM 。 该项目刚开源就被受到热捧:三天之内GitHub上被star了1000+次,
阅读全文
摘要:问题的根本:windows读取文件可以用\,但在字符串里面\被作为转义字符使用, python在描述路径时有两种方式: 'd:\\a.txt',转义的方式 r'd:\a.txt',声明字符串不需要转义 这样就实现了python在windows系统中用\来访问; 其实这样比较麻烦的是不是,下面对几种情
阅读全文
摘要:算法/数据工程师必备技能 基础知识 线性代数 矩阵理论 概率论 随机过程 图论 数值分析 最优化理论 机器学习 统计学习方法 数据挖掘 平台 Linux 语言 Python Linux shell 基础库 numpy pandas sklearn scipy matplotlib or seabor
阅读全文
摘要:这样,就可以在默认显卡被占用(第一块显卡)时,选择其他显卡进行测试了。
阅读全文
摘要:交叉熵(Cross-Entropy) 交叉熵是一个在ML领域经常会被提到的名词。在这篇文章里将对这个概念进行详细的分析。 1.什么是信息量? 2.什么是熵? 可以看出,当两种取值的可能性相等时,不确定度最大(此时没有任何先验知识),这个结论可以推广到多种取值的情况。在图中也可以看出,当p=0或1时,
阅读全文
摘要:我从零开始训练了GoogLeNet模型。 但它没有给我带来希望的结果。 作为替代,我想对我的数据集中的GoogLeNet模型进行微调。 有谁知道我应该遵循什么步骤? 我从零开始训练了GoogLeNet模型。 但它没有给我带来希望的结果。 作为替代,我想对我的数据集中的GoogLeNet模型进行微调。
阅读全文
摘要:参见知乎问题! https://www.zhihu.com/question/275774218 很多框架都会有一个问题,当卷积 weight NaN 之后,卷积的 output 会变成 NaN。然后过了一个 FC,就变成正常的数字了,但是这时候所有 channel 的 output 值相同。 建议
阅读全文
摘要:第一: 可以选择在将数据转换成lmdb格式时进行打乱; 设置参数--shuffle=1;(表示打乱训练数据) 默认为0,表示忽略,不打乱。 打乱的目的有两个:防止出现过分有规律的数据,导致过拟合或者不收敛。 在caffe中可能会使得,在模型进行测试时,每一个测试样本都输出相同的预测概率值。 或者,直
阅读全文