随笔分类 -  机器学习

L1&L2 Regularization的原理
摘要:L1&L2 Regularization 正则化方法:防止过拟合,提高泛化能力 在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在training data上的error渐渐减小,但是在验证集 阅读全文

posted @ 2018-10-17 10:09 Maddock 阅读(2269) 评论(0) 推荐(0) 编辑

深度学习的batch_size
摘要:知乎讨论: https://www.zhihu.com/question/61607442/answer/204675996 案例一 http://www.myzaker.com/article/5a68020fd1f1495d57000030/ Training Imagenet in one h 阅读全文

posted @ 2018-09-30 10:59 Maddock 阅读(993) 评论(0) 推荐(0) 编辑

从LeNet到SENet——卷积神经网络回顾
摘要:从LeNet到SENet——卷积神经网络回顾 从LeNet到SENet——卷积神经网络回顾 从 1998 年经典的 LeNet,到 2012 年历史性的 AlexNet,之后深度学习进入了蓬勃发展阶段,百花齐放,大放异彩,出现了各式各样的不同网络,包括 LeNet、AlexNet、ZFNet、VGG 阅读全文

posted @ 2018-08-29 15:59 Maddock 阅读(423) 评论(0) 推荐(0) 编辑

神经网络权值初始化方法-Xavier
摘要:https://blog.csdn.net/u011534057/article/details/51673458 https://blog.csdn.net/qq_34784753/article/details/78668884 https://blog.csdn.net/kangroger/a 阅读全文

posted @ 2018-08-28 13:47 Maddock 阅读(4247) 评论(0) 推荐(0) 编辑

L0、L1及L2范数
摘要:L1归一化和L2归一化范数的详解和区别 https://blog.csdn.net/u014381600/article/details/54341317 深度学习——L0、L1及L2范数 https://blog.csdn.net/zchang81/article/details/70208061 阅读全文

posted @ 2018-08-14 15:49 Maddock 阅读(249) 评论(0) 推荐(0) 编辑

ResNets和Inception的理解
摘要:ResNets和Inception的理解 ResNet解析 阅读全文

posted @ 2018-06-07 10:19 Maddock 阅读(168) 评论(0) 推荐(0) 编辑

交叉熵代价函数原理
摘要:https://blog.csdn.net/u014595019/article/details/52562159 交叉熵代价函数(作用及公式推导) 2016年04月02日 18:22:52 __鸿 阅读数:65686更多 所属专栏: Machine Learing https://blog.csd 阅读全文

posted @ 2018-06-06 15:50 Maddock 阅读(238) 评论(0) 推荐(0) 编辑

深度学习笔记:优化方法总结(BGD,SGD,Momentum,AdaGrad,RMSProp,Adam)
摘要:深度学习笔记:优化方法总结(BGD,SGD,Momentum,AdaGrad,RMSProp,Adam) 深度学习笔记(一):logistic分类 深度学习笔记(二):简单神经网络,后向传播算法及实现 深度学习笔记(三):激活函数和损失函数 深度学习笔记:优化方法总结 深度学习笔记(四):循环神经网 阅读全文

posted @ 2018-06-06 15:36 Maddock 阅读(289) 评论(0) 推荐(0) 编辑

机器学习 logistic分类
摘要:https://blog.csdn.net/u014595019/article/details/52554582 阅读全文

posted @ 2018-06-06 14:42 Maddock 阅读(147) 评论(0) 推荐(0) 编辑

mxnet img2rec的使用,生成数据文件
摘要:train.lst文件格式 train.lst train.lst 阅读全文

posted @ 2018-05-08 15:24 Maddock 阅读(735) 评论(0) 推荐(0) 编辑

ubuntu安装mxnet GPU版本
摘要:安装mxnet GPUsudo pip install mxnet-cu80==1.1.0 推荐pip安装mxnet,土豪gpu版本: 豪华至尊gpu+mkl版本 (1)使用系统python验证,命令行中输入:python 1,cpu: from mxnet import ndx = nd.arra 阅读全文

posted @ 2018-04-26 19:01 Maddock 阅读(1365) 评论(0) 推荐(0) 编辑

完全图解RNN、RNN变体、Seq2Seq、Attention机制
摘要:完全图解RNN、RNN变体、Seq2Seq、Attention机制 本文主要是利用图片的形式,详细地介绍了经典的RNN、RNN几个重要变体,以及Seq2Seq模型、Attention机制。希望这篇文章能够提供一个全新的视角,帮助初学者更好地入门。 一、从单层网络谈起 在学习RNN之前,首先要了解一下 阅读全文

posted @ 2018-04-24 19:37 Maddock 阅读(763) 评论(0) 推荐(0) 编辑

机器学习中的线性和非线性判断
摘要:机器学习中的线性和非线性判断 说到线性和非线性,你的直观理解是不是这样: 但这种直观理解其实不能回答下面这个问题: 那么为什么卷积操作是线性的,而ReLU是非线性的? 很多人对线性的定义不是很清楚。 实际上,线性的定义是: F(ax+y) = aF(x) + F(y), 其中x、y为变量而a为常数。 阅读全文

posted @ 2018-04-24 17:05 Maddock 阅读(1881) 评论(0) 推荐(0) 编辑

机器学习之随机森林
摘要:随机森林算法学习 参考 https://blog.csdn.net/qq547276542/article/details/78304454 http://www.cnblogs.com/maybe2030/p/4585705.html 最近在做kaggle的时候,发现随机森林这个算法在分类问题上效 阅读全文

posted @ 2018-04-20 15:03 Maddock 阅读(742) 评论(0) 推荐(0) 编辑

TP Rate ,FP Rate, Precision, Recall, F-Measure, ROC Area,
摘要:TP Rate ,FP Rate, Precision, Recall, F-Measure, ROC Area, https://www.zhihu.com/question/30643044 T/F表示 true/false 表示预测的是不是对的 P/N表示 positive/negative 阅读全文

posted @ 2018-04-19 15:19 Maddock 阅读(1627) 评论(0) 推荐(0) 编辑

(深度学习)比较新的网络模型
摘要:从Inception v1,v2,v3,v4,RexNeXt到Xception再到MobileNets,ShuffleNet,MobileNetV2 (深度学习)比较新的网络模型: Inception-v3 , ResNet, ResNeXt Inception-v4, Dual-Path-Net 阅读全文

posted @ 2018-04-18 19:15 Maddock 阅读(282) 评论(0) 推荐(0) 编辑

目标检测算法的进展
摘要:基于深度学习的目标检测 基于深度学习的图像目标检测(上) 基于深度学习的目标检测技术演进:R-CNN、Fast R-CNN、Faster R-CNN 阅读全文

posted @ 2018-03-29 19:18 Maddock 阅读(178) 评论(0) 推荐(0) 编辑

基础 | batchnorm原理及代码详解
摘要:基础 | batchnorm原理及代码详解 https://blog.csdn.net/qq_25737169/article/details/79048516 阅读全文

posted @ 2018-03-28 11:19 Maddock 阅读(218) 评论(0) 推荐(0) 编辑

深度学习笔记:优化方法总结(BGD,SGD,Momentum,AdaGrad,RMSProp,Adam)
摘要:深度学习笔记:优化方法总结(BGD,SGD,Momentum,AdaGrad,RMSProp,Adam) 阅读全文

posted @ 2018-02-01 18:39 Maddock 阅读(208) 评论(0) 推荐(0) 编辑

机器学习之梯度提升决策树GBDT
摘要:集成学习总结 简单易学的机器学习算法——梯度提升决策树GBDT GBDT(Gradient Boosting Decision Tree) Boosted Tree:一篇很有见识的文章 https://www.zhihu.com/question/54332085 AdaBoost与GBDT的区别 阅读全文

posted @ 2018-01-25 09:19 Maddock 阅读(492) 评论(0) 推荐(0) 编辑

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5
点击右上角即可分享
微信分享提示