会员
周边
众包
新闻
博问
闪存
赞助商
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
python我的最爱
坚持每天分享一个深度学习的知识点
博客园
首页
新随笔
联系
订阅
管理
上一页
1
···
28
29
30
31
32
33
34
35
36
···
48
下一页
2018年10月13日
跟我学算法-svm支持向量机算法推导
摘要: Svm算法又称为支持向量机,是一种有监督的学习分类算法,目的是为了找到两个支持点,用来使得平面到达这两个支持点的距离最近。 通俗的说:找到一条直线,使得离该线最近的点与该线的距离最远。 我使用手写进行了推导 求解实例 软间隔,通过设置C,使得目标函数的松弛因子发生变化,松弛因子越大,表示分类越不严格
阅读全文
posted @ 2018-10-13 21:19 python我的最爱
阅读(180)
评论(0)
推荐(0)
编辑
2018年10月10日
决策树与树集成模型(bootstrap, 决策树(信息熵,信息增益, 信息增益率, 基尼系数),回归树, Bagging, 随机森林, Boosting, Adaboost, GBDT, XGboost)
摘要: 1.bootstrap 在原始数据的范围内作有放回的再抽样M个, 样本容量仍为n,原始数据中每个观察单位每次被抽到的概率相等, 为1/n , 所得样本称为Bootstrap样本。于是可得到参数θ的一个估计值θ^(b),这样重复若干次,记为B 。为了可以避免一些误差点对少量树的决策影响。 2.决策树
阅读全文
posted @ 2018-10-10 22:05 python我的最爱
阅读(904)
评论(0)
推荐(0)
编辑
2018年10月8日
图片拼接SIFT
摘要: 图片拼接 SIFT: 特征点处理:位置插值,去除低对比度点,去除边缘点 方向估计 描述子提取 下面的程序中使用: 第一步: 使用SIFT生成器提取描述子和特征 第二步: 使用KNN检测来自A,B图的SIFT特征匹配对, 形成视觉变化矩阵H 第三步: 将图片A进行视觉变化,将B图片放在变换图片的左边,
阅读全文
posted @ 2018-10-08 17:04 python我的最爱
阅读(1112)
评论(0)
推荐(0)
编辑
图像特征与描述子(直方图, 聚类, 边缘检测, 兴趣点/关键点, Harris角点, 斑点(Blob), SIFI, 纹理特征)
摘要: 1.直方图 用于计算图片特征,表达, 使得数据具有总结性, 颜色直方图对数据空间进行量化,好比10个bin 2. 聚类 类内对象的相关性高 类间对象的相关性差 常用算法:kmeans, EM算法, meanshift, 谱聚类(密度聚类), 层次聚类 kmeans聚类 选取k个类中心,随机选取 计算
阅读全文
posted @ 2018-10-08 15:30 python我的最爱
阅读(1854)
评论(0)
推荐(0)
编辑
2018年10月2日
跟我学算法-吴恩达老师(误差分析, 正确标注, 开发集和测试集的划分, 数据不匹配,迁移学习, 多任务学习, 端到端学习)
摘要: 1. 误差分析 通过分析错误的标记,来判断主要是哪个原因引起了错误,这是猫的分类,观察被分错图片的原因,总结需要优化的条件 image Dog Great cat blurry comment 1 2 3 4 5 6 2. 进行正确标注 当前错误率为10%, 进行误差分析后,由于0.6%的错误标记引
阅读全文
posted @ 2018-10-02 15:32 python我的最爱
阅读(240)
评论(0)
推荐(0)
编辑
2018年9月30日
跟我学算法-吴恩达老师(正交化, 单实数评估指标, 满足指标, (训练集,开发集, 测试集的分布), 改变指标, 人类的表现 )
摘要: 1.正交化 指使用单个手段来控制一个指标,如样本的偏差过大时,即欠拟合,就采用增加模型复杂程度,来降低样本偏差 2.单实数评估指标单实数评估样本也是我们平时常说的优化指标 accruacy = (tp + tn)/ (tp+fp+tn+fn) precesion = (tp) / (tp+fp) r
阅读全文
posted @ 2018-09-30 22:03 python我的最爱
阅读(176)
评论(0)
推荐(0)
编辑
2018年9月28日
跟我学算法-吴恩达老师(超参数调试, batch归一化, softmax使用,tensorflow框架举例)
摘要: 1. 在我们学习中,调试超参数是非常重要的。 超参数的调试可以是a学习率,(β1和β2,ε)在Adam梯度下降中使用, layers层数, hidden units 隐藏层的数目, learning_rate_dacay 学习率衰减, mini-batch size 每次迭代的样本数目 当需要调节的
阅读全文
posted @ 2018-09-28 20:21 python我的最爱
阅读(378)
评论(0)
推荐(0)
编辑
2018年9月26日
跟我学算法-opencv加载,修改,保存
摘要: #include #include #include using namespace cv; int main(int argc, char** argv) { Mat src = imread("C:/Users/Administrator/Desktop/1.png", IMREAD_ANYCOLOR); if (src.empty()) { printf...
阅读全文
posted @ 2018-09-26 09:23 python我的最爱
阅读(333)
评论(0)
推荐(0)
编辑
2018年9月25日
跟我学算法-吴恩达老师(mini-batchsize,指数加权平均,Momentum 梯度下降法,RMS prop, Adam 优化算法, Learning rate decay)
摘要: 1.mini-batch size 表示每次都只筛选一部分作为训练的样本,进行训练,遍历一次样本的次数为(样本数/单次样本数目) 当mini-batch size 的数量通常介于1,m 之间 当为1时,称为随机梯度下降 一般我们选择64,128, 256等样本数目 2. 指数加权平均 v0 = 0
阅读全文
posted @ 2018-09-25 16:25 python我的最爱
阅读(850)
评论(0)
推荐(0)
编辑
跟我学算法-吴恩达老师(偏差方差,正则化,正则化输入,梯度消失和爆炸,梯度检测)
摘要: 1.训练样本的分布 交叉验证指的是训练集和验证集,为了防止在训练过程中受到部分训练样本的影响 一般当样本数目较少时,采用60/20/20的比例,60%的训练集,20%的验证集,20%的测试集当样本数目较大时,一般可以采用2.5%的验证集和1%的测试集,其他都是训练样本。 很多情况下,我们会不适用测试
阅读全文
posted @ 2018-09-25 13:59 python我的最爱
阅读(535)
评论(0)
推荐(0)
编辑
上一页
1
···
28
29
30
31
32
33
34
35
36
···
48
下一页