Fork me on GitHub

随笔分类 -  机器学习

摘要:4. Faster-R-CNN: Towards Real-Time Object Detection with Region Proposal Networks 在之前介绍的Fast-R-CNN中,第一步需要先使用Selective Search方法提取图像中的proposals。基于CPU实现的 阅读全文
posted @ 2019-01-06 19:35 stardsd 阅读(8081) 评论(0) 推荐(0) 编辑
摘要:2. SPP-Net : Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition) 传统CNN和SPP-Net流程对比如下图所示(引自http://www.image-net.org/challeng 阅读全文
posted @ 2019-01-06 19:34 stardsd 阅读(917) 评论(0) 推荐(0) 编辑
摘要:1. R-CNN:Rich feature hierarchies for accurate object detection and semantic segmentation 技术路线:selective search + CNN + SVMs Step1:候选框提取(selective sea 阅读全文
posted @ 2019-01-06 19:33 stardsd 阅读(1734) 评论(0) 推荐(0) 编辑
摘要:基于空间金字塔池化的卷积神经网络物体检测 原文地址:http://blog.csdn.net/hjimce/article/details/50187655 作者:hjimce 一、相关理论 本篇博文主要讲解大神何凯明2014年的paper:《Spatial Pyramid Pooling in D 阅读全文
posted @ 2019-01-01 15:20 stardsd 阅读(12892) 评论(1) 推荐(0) 编辑
摘要:版权声明:转载请注明出处,谢谢! https://blog.csdn.net/Quincuntial/article/details/59109447 1. Parameters solver.prototxt文件是用来告诉caffe如何训练网络的。solver.prototxt的各个参数的解释如下 阅读全文
posted @ 2018-12-31 15:11 stardsd 阅读(1177) 评论(0) 推荐(0) 编辑
摘要:版权声明:本文为博主原创文章,欢迎转载,注明地址。 https://blog.csdn.net/program_developer/article/details/79430119 一、LRN技术介绍: Local Response Normalization(LRN)技术主要是深度学习训练时的一种 阅读全文
posted @ 2018-12-31 14:34 stardsd 阅读(6230) 评论(0) 推荐(1) 编辑
摘要:版权声明:本文为博主原创文章,转载请注明出处。 https://blog.csdn.net/Cheese_pop/article/details/52024980 DATA crop:截取原图像中一个固定patch layers { name: "data" type: DATA top: "dat 阅读全文
posted @ 2018-12-30 19:31 stardsd 阅读(1312) 评论(0) 推荐(0) 编辑
摘要:1. Dropout简介 1.1 Dropout出现的原因 在机器学习的模型中,如果模型的参数太多,而训练样本又太少,训练出来的模型很容易产生过拟合的现象。在训练神经网络的时候经常会遇到过拟合的问题,过拟合具体表现在:模型在训练数据上损失函数较小,预测准确率较高;但是在测试数据上损失函数比较大,预测 阅读全文
posted @ 2018-12-16 20:15 stardsd 阅读(6040) 评论(0) 推荐(0) 编辑
摘要:1. SimHash与传统hash函数的区别 传统的Hash算法只负责将原始内容尽量均匀随机地映射为一个签名值,原理上仅相当于伪随机数产生算法。传统的hash算法产生的两个签名,如果原始内容在一定概率下是相等的;如果不相等,除了说明原始内容不相等外,不再提供任何信息,因为即使原始内容只相差一个字节, 阅读全文
posted @ 2018-12-08 16:08 stardsd 阅读(15012) 评论(0) 推荐(0) 编辑
摘要:1 介 绍 1.1 流式计算介绍 流式大数据计算主要有以下特征: 1)实时性。流式大数据不仅是实时产生的,也是要求实时给出反馈结果。系统要有快速响应能力,在短时间内体现出数据的价值,超过有效时间后数据的价值就会迅速降低。 2)突发性。数据的流入速率和顺序并不确定,甚至会有较大的差异。这要求系统要有较 阅读全文
posted @ 2018-12-08 15:56 stardsd 阅读(2130) 评论(0) 推荐(0) 编辑
摘要:1 指数平滑法 移动平均模型在解决时间序列问题上简单有效,但它们的计算比较难,因为不能通过之前的计算结果推算出加权移动平均值。此外,移动平均法不能很好的处理数据集边缘的数据变化,也不能应用于现有数据集的范围之外。因此,移动平均法的预测效果相对较差。 指数平滑法(exponential smoothi 阅读全文
posted @ 2018-12-08 15:39 stardsd 阅读(3556) 评论(0) 推荐(0) 编辑
摘要:原文连接 https://blog.csdn.net/guolindonggld/article/details/56966200 原文连接 https://blog.csdn.net/guolindonggld/article/details/56966200 原文连接 https://blog. 阅读全文
posted @ 2018-11-24 19:56 stardsd 阅读(5315) 评论(2) 推荐(1) 编辑
摘要:前言在跑通了官网的mnist和cifar10数据之后,笔者尝试着制作自己的数据集,并保存,读入,显示。 TensorFlow可以支持cifar10的数据格式, 也提供了标准的TFRecord 格式,而关于 tensorflow 读取数据, 官网提供了3中方法 1 Feeding: 在tensorfl 阅读全文
posted @ 2018-11-04 15:44 stardsd 阅读(3207) 评论(0) 推荐(0) 编辑
摘要:https://www.cnblogs.com/pinard/p/9220199.html 在机器学习用于产品的时候,我们经常会遇到跨平台的问题。比如我们用Python基于一系列的机器学习库训练了一个模型,但是有时候其他的产品和项目想把这个模型集成进去,但是这些产品很多只支持某些特定的生产环境比如J 阅读全文
posted @ 2018-10-30 15:46 stardsd 阅读(4800) 评论(0) 推荐(0) 编辑
摘要:支持连续变量和类别变量,类别变量就是某个属性有三个值,a,b,c,需要用Feature Transformers中的vectorindexer处理 上来是一堆参数 setMaxDepth:最大树深度 setMaxBins:最大装箱数,为了近似统计变量,比如变量有100个值,我只分成10段去做统计 s 阅读全文
posted @ 2018-10-30 15:27 stardsd 阅读(1361) 评论(0) 推荐(0) 编辑
摘要:修改元数据 概述 “修改元数据”节点用于显示检测到的元数据或者输入的元数据信息,为后续的模型训练和应用做必要的准备。 用户可以修改本节点的测量尺度(包括测量尺度、值)和角色,修改后的测量尺度和角色会被检测是否满足一致性要求。 当测量尺度修改完成后,会根据类型来进行一致性检查。 当角色修改完成后,会根 阅读全文
posted @ 2018-10-30 15:13 stardsd 阅读(736) 评论(0) 推荐(0) 编辑
摘要:写在前面 之前只停留在理论上,没有实际沉下心去调参,实际去做了后,发现调参是个大工程(玄学)。于是这篇来总结一下sklearn中svm的参数说明以及调参经验。方便以后查询和回忆。 常用核函数 1.linear核函数: K(xi,xj)=xTixjK(xi,xj)=xiTxj 2.polynomial 阅读全文
posted @ 2018-09-24 21:23 stardsd 阅读(12505) 评论(0) 推荐(2) 编辑
摘要:作者:孙九爷链接:https://www.zhihu.com/question/41765860/answer/101915528来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 变分推断其实就是一句话:用简单的分布q去近似复杂的分布p。首先,为什么要选择用变分推断?因 阅读全文
posted @ 2018-09-05 19:26 stardsd 阅读(466) 评论(0) 推荐(0) 编辑
摘要:引入 监督学习的任务就是学习一个模型(或者得到一个目标函数),应用这一模型,对给定的输入预测相应的输出。这一模型的一般形式为一个决策函数Y=f(X),或者条件概率分布P(Y|X)。 监督学习方法又可以分为生成方法(generative approach)和判别方法(discriminative ap 阅读全文
posted @ 2018-09-04 20:37 stardsd 阅读(16681) 评论(0) 推荐(1) 编辑
摘要:1.再提逻辑回归 前面已经讲过了逻辑回归,这里不再细讲,只是简单的说一个函数,主要是方便大家更好的理解概率校准。 在逻辑回归中,用的最多的就是sigmod函数,这个函数的作用就是把无限大或者无限小的数据压缩到[0,1]之间,用来估计概率。图像大致为: 基本上是以0.5分界,0.5以上为1,0.5以下 阅读全文
posted @ 2018-09-03 21:27 stardsd 阅读(13956) 评论(0) 推荐(0) 编辑