上一页 1 ··· 28 29 30 31 32 33 34 35 36 ··· 48 下一页
摘要: Svm算法又称为支持向量机,是一种有监督的学习分类算法,目的是为了找到两个支持点,用来使得平面到达这两个支持点的距离最近。 通俗的说:找到一条直线,使得离该线最近的点与该线的距离最远。 我使用手写进行了推导 求解实例 软间隔,通过设置C,使得目标函数的松弛因子发生变化,松弛因子越大,表示分类越不严格 阅读全文
posted @ 2018-10-13 21:19 python我的最爱 阅读(179) 评论(0) 推荐(0) 编辑
摘要: 1.bootstrap 在原始数据的范围内作有放回的再抽样M个, 样本容量仍为n,原始数据中每个观察单位每次被抽到的概率相等, 为1/n , 所得样本称为Bootstrap样本。于是可得到参数θ的一个估计值θ^(b),这样重复若干次,记为B 。为了可以避免一些误差点对少量树的决策影响。 2.决策树 阅读全文
posted @ 2018-10-10 22:05 python我的最爱 阅读(897) 评论(0) 推荐(0) 编辑
摘要: 图片拼接 SIFT: 特征点处理:位置插值,去除低对比度点,去除边缘点 方向估计 描述子提取 下面的程序中使用: 第一步: 使用SIFT生成器提取描述子和特征 第二步: 使用KNN检测来自A,B图的SIFT特征匹配对, 形成视觉变化矩阵H 第三步: 将图片A进行视觉变化,将B图片放在变换图片的左边, 阅读全文
posted @ 2018-10-08 17:04 python我的最爱 阅读(1106) 评论(0) 推荐(0) 编辑
摘要: 1.直方图 用于计算图片特征,表达, 使得数据具有总结性, 颜色直方图对数据空间进行量化,好比10个bin 2. 聚类 类内对象的相关性高 类间对象的相关性差 常用算法:kmeans, EM算法, meanshift, 谱聚类(密度聚类), 层次聚类 kmeans聚类 选取k个类中心,随机选取 计算 阅读全文
posted @ 2018-10-08 15:30 python我的最爱 阅读(1827) 评论(0) 推荐(0) 编辑
摘要: 1. 误差分析 通过分析错误的标记,来判断主要是哪个原因引起了错误,这是猫的分类,观察被分错图片的原因,总结需要优化的条件 image Dog Great cat blurry comment 1 2 3 4 5 6 2. 进行正确标注 当前错误率为10%, 进行误差分析后,由于0.6%的错误标记引 阅读全文
posted @ 2018-10-02 15:32 python我的最爱 阅读(235) 评论(0) 推荐(0) 编辑
摘要: 1.正交化 指使用单个手段来控制一个指标,如样本的偏差过大时,即欠拟合,就采用增加模型复杂程度,来降低样本偏差 2.单实数评估指标单实数评估样本也是我们平时常说的优化指标 accruacy = (tp + tn)/ (tp+fp+tn+fn) precesion = (tp) / (tp+fp) r 阅读全文
posted @ 2018-09-30 22:03 python我的最爱 阅读(175) 评论(0) 推荐(0) 编辑
摘要: 1. 在我们学习中,调试超参数是非常重要的。 超参数的调试可以是a学习率,(β1和β2,ε)在Adam梯度下降中使用, layers层数, hidden units 隐藏层的数目, learning_rate_dacay 学习率衰减, mini-batch size 每次迭代的样本数目 当需要调节的 阅读全文
posted @ 2018-09-28 20:21 python我的最爱 阅读(376) 评论(0) 推荐(0) 编辑
摘要: #include #include #include using namespace cv; int main(int argc, char** argv) { Mat src = imread("C:/Users/Administrator/Desktop/1.png", IMREAD_ANYCOLOR); if (src.empty()) { printf... 阅读全文
posted @ 2018-09-26 09:23 python我的最爱 阅读(333) 评论(0) 推荐(0) 编辑
摘要: 1.mini-batch size 表示每次都只筛选一部分作为训练的样本,进行训练,遍历一次样本的次数为(样本数/单次样本数目) 当mini-batch size 的数量通常介于1,m 之间 当为1时,称为随机梯度下降 一般我们选择64,128, 256等样本数目 2. 指数加权平均 v0 = 0 阅读全文
posted @ 2018-09-25 16:25 python我的最爱 阅读(840) 评论(0) 推荐(0) 编辑
摘要: 1.训练样本的分布 交叉验证指的是训练集和验证集,为了防止在训练过程中受到部分训练样本的影响 一般当样本数目较少时,采用60/20/20的比例,60%的训练集,20%的验证集,20%的测试集当样本数目较大时,一般可以采用2.5%的验证集和1%的测试集,其他都是训练样本。 很多情况下,我们会不适用测试 阅读全文
posted @ 2018-09-25 13:59 python我的最爱 阅读(529) 评论(0) 推荐(0) 编辑
上一页 1 ··· 28 29 30 31 32 33 34 35 36 ··· 48 下一页