DeepLearning资源汇总

仍旧不完全统计,边学边加

Bagging与随机森林算法原理

 

分类数据集 MNIST Cifar10 ILSVRC排行榜

 Cifar10 board

train loss与test loss结果分析    偶遇拿来参考

 

理论:

Normalization Regularization  数据预处理 Normalization归一化 针对数据;Regularization正则化 针对代价函数

internal covariate shift的解释

 

caffe:

模型描述中的各参数含义

solver.prototxt解释

 

Ufldl softmax回归

 

posted @ 2018-02-02 15:55  tszs_song  阅读(182)  评论(0编辑  收藏  举报