上一页 1 ··· 12 13 14 15 16
摘要: 假设有20类,2000个建议框,最后输出向量维数2000*20,则每列对应一类,一行是各个建议框的得分,NMS算法步骤如下: ① 对2000×20维矩阵中每列按从大到小进行排序; ② 从每列最大的得分建议框开始,分别与该列后面的得分建议框进行IoU计算,若IoU>阈值,则剔除得分较小的建议框,否则认 阅读全文
posted @ 2020-02-06 12:13 赵家小伙儿 阅读(673) 评论(0) 推荐(0) 编辑
摘要: 示例: 维度非常高(1000多维度),并且每个维度都很重要,数据量很少,是调查结果,只有近万份,数据是很稀疏的,基本上是连续值。 在这种情况下,如何选择模型?为什么? 1. 尝试用线性分类器,比如SVM、LR等,看训练误差和测试误差的差异,这个时候可能出现多种情况: 1) 如果训练误差远小于测试误差 阅读全文
posted @ 2020-02-03 13:28 赵家小伙儿 阅读(301) 评论(0) 推荐(0) 编辑
摘要: 参考:https://www.jianshu.com/p/4bad38fe07e6 阅读全文
posted @ 2020-02-03 11:50 赵家小伙儿 阅读(300) 评论(0) 推荐(0) 编辑
摘要: 1. 机器学习中的常用分类器:回归、分类(确定是哪一类) 1)线性回归:根据给出的数据拟合出一条直线或曲线,反应数据的分布; 评判的准则或损失函数:统计所有预测值yi及对应实际值y之间的距离之和,使其最小化; 理解,参考: 线性回归:https://blog.csdn.net/wade1203/ar 阅读全文
posted @ 2020-01-18 16:41 赵家小伙儿 阅读(4868) 评论(0) 推荐(0) 编辑
摘要: 参考: 奇异值分解:https://www.cnblogs.com/endlesscoding/p/10033527.html 主成分分析:https://blog.csdn.net/program_developer/article/details/80632779 阅读全文
posted @ 2020-01-16 10:50 赵家小伙儿 阅读(347) 评论(0) 推荐(0) 编辑
摘要: 1. 贝叶斯分类的基础——贝叶斯定理 这个定理解决了现实生活里经常遇到的问题:已知某条件概率,如何得到两个事件交换后的概率,也就是在已知P(A|B)的情况下如何求得P(B|A)。这里先解释什么是条件概率: P(A|B)表示事件B已经发生的前提下,事件A发生的概率,叫做事件B发生下事件A的条件概率。其 阅读全文
posted @ 2020-01-13 11:37 赵家小伙儿 阅读(390) 评论(0) 推荐(0) 编辑
上一页 1 ··· 12 13 14 15 16