会员
周边
新闻
博问
闪存
众包
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
小猪童鞋
博客园
首页
新随笔
联系
管理
订阅
2017年10月23日
boost::regext正则表达式异常分析
摘要: https://stackoverflow.com/questions/6770898/unknown-escape-sequence-error-in-go 例如以上链接中的错误 编译 g++ -std=c++14 -Wall -O3 -finline-functions -lboost_rege
阅读全文
posted @ 2017-10-23 22:29 小猪童鞋
阅读(1215)
评论(0)
推荐(0)
2017年10月19日
机器学习--朴素贝叶斯分类,以及拉普拉斯校准
摘要: 原文链接: 1. 词袋模型http://chant00.com/2017/09/18/%E8%B4%9D%E5%8F%B6%E6%96%AF/ 2. 朴素贝叶斯计算嫁人概率 https://zhuanlan.zhihu.com/p/26329951 3. 朴素贝叶斯开发python实例以及注意的问题
阅读全文
posted @ 2017-10-19 16:17 小猪童鞋
阅读(5464)
评论(0)
推荐(0)
2016年11月12日
关于 epoch、 iteration和batchsize
摘要: 原文: http://blog.csdn.net/sinat_30071459/article/details/50721565 深度学习中经常看到epoch、 iteration和batchsize,下面按自己的理解说说这三个的区别: (1)batchsize:批大小。在深度学习中,一般采用SGD
阅读全文
posted @ 2016-11-12 17:24 小猪童鞋
阅读(2670)
评论(0)
推荐(0)
神经网络为什么要用sigmoid函数?为什么要映射到0-1之间?
摘要: (1)对于深度神经网络,中间的隐层的输出必须有一个激活函数。否则多个隐层的作用和没有隐层相同。这个激活函数不一定是sigmoid,常见的有sigmoid、tanh、relu等。 (2)对于二分类问题,输出层是sigmoid函数。这是因为sigmoid函数可以把实数域光滑的映射到[0,1]空间。函数值
阅读全文
posted @ 2016-11-12 17:17 小猪童鞋
阅读(10519)
评论(0)
推荐(0)
2016年10月27日
[转]使用国内镜像源来加速python pypi包的安装
摘要: 使用国内镜像源来加速python pypi包的安装 http://topmanopensource.iteye.com/blog/2004853 博客分类: 开源组件的应用 PYTHONpip在线安装python依赖库 使用国内镜像源来加速python pypi包的安装 http://topmano
阅读全文
posted @ 2016-10-27 15:52 小猪童鞋
阅读(2393)
评论(0)
推荐(0)
2016年8月3日
Deep Learning(深度学习)学习笔记整理系列(三)——Deep Learning的基本思想
摘要: zouxy09@qq.com http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0 2013-04-08 1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的。具体引用的资料请看参考文献。具体的版本声明也参考原文献
阅读全文
posted @ 2016-08-03 22:50 小猪童鞋
阅读(436)
评论(0)
推荐(0)
Deep Learning(深度学习)学习笔记整理系列之(四)——CNN
摘要: zouxy09@qq.com http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0 2013-04-08 1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的。具体引用的资料请看参考文献。具体的版本声明也参考原文献
阅读全文
posted @ 2016-08-03 22:49 小猪童鞋
阅读(1778)
评论(0)
推荐(0)
理解caffe的fine-tuning
摘要: 来源:知乎 https://www.zhihu.com/question/40850491 比如说,先设计出一个CNN结构。然后用一个大的数据集A,训练该CNN网络,得到网络a。可是在数据集B上,a网络预测效果并不理想(可能的原因是数据集A和B存在一些差异,比如数据来源不同导致的代表性差异)。如果直
阅读全文
posted @ 2016-08-03 22:31 小猪童鞋
阅读(8319)
评论(0)
推荐(0)
2016年8月2日
卷积神经网络详解
摘要: 卷积神经网络 转载请注明:http://blog.csdn.net/stdcoutzyx/article/details/41596663 自今年七月份以来,一直在实验室负责卷积神经网络(Convolutional Neural Network,CNN),期间配置和使用过theano和cuda-co
阅读全文
posted @ 2016-08-02 11:17 小猪童鞋
阅读(1475)
评论(0)
推荐(0)
2016年7月31日
Deep Learning(深度学习)学习笔记整理系列(二)——特征
摘要: zouxy09@qq.com http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0 2013-04-08 1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的。具体引用的资料请看参考文献。具体的版本声明也参考原文献
阅读全文
posted @ 2016-07-31 17:49 小猪童鞋
阅读(562)
评论(0)
推荐(0)
Deep Learning(深度学习)学习笔记整理系列(一)——背景
摘要: zouxy09@qq.com http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0 2013-04-08 1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的。具体引用的资料请看参考文献。具体的版本声明也参考原文献
阅读全文
posted @ 2016-07-31 16:18 小猪童鞋
阅读(2351)
评论(0)
推荐(0)
2016年7月14日
Matlab简单快速读取nc文件
摘要: 2012以上版本的Matlab都内含nc阅读组件 命令非常简单。 例如 nc的文件名是filename,其中有多个变量,其中data_001是你想要的数据标签。 第一步,查看nc内的所有信息 ncdisp('filename','/', 'full'); 第二步,调出来你想要的变量或者数据, ncr
阅读全文
posted @ 2016-07-14 18:26 小猪童鞋
阅读(21059)
评论(0)
推荐(0)
2016年7月13日
[转载]矩阵求导公式
摘要: 原文地址:矩阵求导公式【转】作者:三寅 今天推导公式,发现居然有对矩阵的求导,狂汗--完全不会。不过还好网上有人总结了。吼吼,赶紧搬过来收藏备份。 基本公式:Y = A * X --> DY/DX = A'Y = X * A --> DY/DX = AY = A' * X * B --> DY/DX
阅读全文
posted @ 2016-07-13 22:19 小猪童鞋
阅读(2539)
评论(0)
推荐(0)
2016年6月29日
机器学习中的数学(3)-模型组合(Model Combining)之Boosting与Gradient Boosting
摘要: 版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com 前言: 本来上一章的结尾提到,准备写写线性分类的问题,文章都已经写得差不多了,但是突
阅读全文
posted @ 2016-06-29 23:14 小猪童鞋
阅读(271)
评论(0)
推荐(0)
机器学习中的算法(1)-决策树模型组合之随机森林与GBDT
摘要: 版权声明: 本文由LeftNotEasy发布于http://leftnoteasy.cnblogs.com, 本文可以被全部的转载或者部分使用,但请注明出处,如果有问题,请联系wheeleast@gmail.com 前言: 决策树这种算法有着很多良好的特性,比如说训练时间复杂度较低,预测的过程比较快
阅读全文
posted @ 2016-06-29 23:13 小猪童鞋
阅读(260)
评论(0)
推荐(0)
隐马尔可夫模型(HMM:Hidden Markov Models)
摘要: 理论部分转载自:http://blog.csdn.net/likelet/article/details/7056068 手动计算例子转载自:http://blog.sina.com.cn/s/blog_953f8a550100zh35.html 隐马尔可夫模型 (Hidden Markov Mod
阅读全文
posted @ 2016-06-29 22:40 小猪童鞋
阅读(1859)
评论(0)
推荐(0)
机器学习中的算法:决策树模型组合之GBDT(Gradient Boost Decision Tree)
摘要: 【转载自:http://www.cnblogs.com/LeftNotEasy/archive/2011/03/07/random-forest-and-gbdt.html】 前言 决策树这种算法有着很多良好的特性,比如说训练时间复杂度较低,预测的过程比较快速,模型容易展示(容易将得到的决策树做成图
阅读全文
posted @ 2016-06-29 22:40 小猪童鞋
阅读(4140)
评论(0)
推荐(0)
公告