有多少人工,就有多少智能

随笔分类 -  模型评估

摘要:1. 共同目标 - 深度学习模型部署优化 这三者都是用于优化和部署深度学习模型的工具和框架, 目标是提高模型在服务端的推理性能。 2. 技术侧重点不同 TensorRT侧重于针对Nvidia GPU硬件进行深度学习模型的优化与加速。 OpenVINO则针对Inter CPU和FPGA等硬件进行模拟优 阅读全文
posted @ 2024-07-13 11:18 lvdongjie-avatarx 阅读(157) 评论(0) 推荐(0) 编辑
摘要:两者都可以用来衡量两个概率分布之间的差异性。JS散度是KL散度的一种变体形式。 KL散度:也称相对熵、KL距离。对于两个概率分布P和Q之间的差异性(也可以简单理解成相似性),二者越相似,KL散度越小。 KL散度的性质:●非负性。即KL散度大于等于零。 ●非对称性。即运算时交换P和Q的位置,得到的结果 阅读全文
posted @ 2022-05-21 13:47 lvdongjie-avatarx 阅读(554) 评论(0) 推荐(0) 编辑
摘要:先介绍几个物体检测的相关知识 不同于分类问题,物体检测可能会存在多个检测目标,这不仅需要我们判别出各个物体的类别,而且还要准确定位出物体的位置 下面图片上有猫,有狗,还有小黄鸭,这是多物体检测: 1.png 物体检测算法常用到的概念 下面我们讲解一下在物体检测算法中常用到的几个概念:Bbox,IoU 阅读全文
posted @ 2021-04-10 18:54 lvdongjie-avatarx 阅读(105) 评论(0) 推荐(0) 编辑
摘要:一、卷积(Convolution) 那么究竟什么是卷积呢?你可能还记得我之前的博客,我们使用了一个小的滤波器(Filter),并在整个图像上滑动这个滤波器。然后,将图像的像素值与滤波器中的像素值相乘。使用深度学习的优雅之处在于我们不必考虑这些滤波器应该是什么样的(神经网络会自动学习并选取最佳的滤波器 阅读全文
posted @ 2021-03-25 20:50 lvdongjie-avatarx 阅读(632) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2021-01-19 19:03 lvdongjie-avatarx 阅读(127) 评论(0) 推荐(0) 编辑
摘要:前言 XGBoost是boosting算法的其中一种。Boosting算法的思想是将许多弱分类器集成在一起形成一个强分类器。XGBoost是一种提升树模型,它是将许多树模型集成在一起,形成一个很强的分类器,所用到的树模型则是CART回归树模型。 CART CART回归树是假设树的结构为二叉树,通过不 阅读全文
posted @ 2021-01-17 10:45 lvdongjie-avatarx 阅读(217) 评论(0) 推荐(0) 编辑
摘要:https://scikit-learn.org/stable/modules/classes.html 阅读全文
posted @ 2021-01-13 08:04 lvdongjie-avatarx 阅读(56) 评论(0) 推荐(0) 编辑
摘要:1.安装Graphviz 在graphviz的官网(网址:http://www.graphviz.org/Download_windows.php),选择Windows对应的mis文件进行下载。如graphviz-2.3.8.msi: 下载之后,进行安装。找到安装路径,如:C:\Program Fi 阅读全文
posted @ 2021-01-12 22:17 lvdongjie-avatarx 阅读(677) 评论(0) 推荐(0) 编辑
摘要:前面的博客里有提到决策树,我们也了解了决策树的构建过程,如果可以可视化决策树,把决策树打印出来,对我们理解决策树的构建会有很大的帮助。这篇文章中,我们就来看下如何可视化输出一棵决策树。 一、安装相应的插件 我们需要安装Graphviz和pygraphviz,教程,这个教程里有详细的安装过程,这里就不 阅读全文
posted @ 2021-01-12 22:15 lvdongjie-avatarx 阅读(609) 评论(0) 推荐(0) 编辑
摘要:输出是连续变量的是回归树,输出是离散变量的是分类树。 CART决策树是一个二叉树。 回归树: 输入空间划分为M个单元 ,单元 对应输出 , 是其对应的输入空间。 输出 取 上所有输出的均值: 下面,看输入空间的划分方法。 假设最优切分变量 ,最优切分点 ,输入空间被划分为两部分: 它们的输出是各自输 阅读全文
posted @ 2021-01-12 20:57 lvdongjie-avatarx 阅读(132) 评论(0) 推荐(0) 编辑
摘要: 阅读全文
posted @ 2021-01-12 08:17 lvdongjie-avatarx 阅读(397) 评论(0) 推荐(0) 编辑
摘要:一、基尼指数的概念 基尼指数(Gini不纯度)表示在样本集合中一个随机选中的样本被分错的概率。注意:Gini指数越小表示集合中被选中的样本被参错的概率越小,也就是说集合的纯度越高,反之,集合越不纯。当集合中所有样本为一个类时,基尼指数为0. 二、基尼系数的计算公式 基尼指数的计算公式为: 三、计算示 阅读全文
posted @ 2021-01-12 07:45 lvdongjie-avatarx 阅读(5234) 评论(0) 推荐(0) 编辑
摘要:网格搜索算法和K折交叉验证法是机器学习入门的时候遇到的重要的概念。 网格搜索算法是一种通过遍历给定的参数组合来优化模型表现的方法。 以决策树为例,当我们确定了要使用决策树算法的时候,为了能够更好地拟合和预测,我们需要调整它的参数。在决策树算法中,我们通常选择的参数是决策树的最大深度。 于是我们会给出 阅读全文
posted @ 2021-01-10 19:03 lvdongjie-avatarx 阅读(829) 评论(0) 推荐(0) 编辑
摘要:一. 交叉验证原理讲解 1. 设置验证集的原因 在机器学习建模过程中,将数据分为训练集和测试集。测试集合训练集是完全分开的两个数据集,完全不参与训练,只是用于模型最终确定后,来测试模型的效果。而训练集又要分出一部分数据用来验证模型的训练效果,即验证集。验证集在每次训练集训练结束后,对模型的效果进行初 阅读全文
posted @ 2021-01-10 18:59 lvdongjie-avatarx 阅读(178) 评论(0) 推荐(0) 编辑
摘要:对于二分类问题,precision,recall,auc,f1_score的计算原理都比较熟悉,但是多分类问题的计算还是有一点小小的区别,在使用sklearn.metrics的时候需要注意一下; 对于sklearn.metrics下的roc_auc_score, precision_score, r 阅读全文
posted @ 2021-01-10 18:52 lvdongjie-avatarx 阅读(451) 评论(0) 推荐(0) 编辑
摘要:面试的时候经常被问的一个问题是 AUC和F1 score有什么区别。笔者看了很多博文,感觉相当一部分在分析混淆矩阵和auc、f1的定义上花了太多笔墨,但对于两者的区别和联系,有种到了门前就差临门一脚的感觉。因此笔者去stack overflow上找了很多回答,感觉收获很多,在此简明扼要的写一下收获。 阅读全文
posted @ 2021-01-10 18:18 lvdongjie-avatarx 阅读(2049) 评论(1) 推荐(1) 编辑
摘要:为什么要进行归一化? 机器学习模型被互联网行业广泛应用,一般做机器学习应用的时候大部分时间是花费在特征处理上,其中很关键的一步就是对特征数据进行归一化,为什么要归一化呢?维基百科给出的解释: 归一化后加快了梯度下降求最优解的速度; 如果机器学习模型使用梯度下降法求最优解时,归一化往往非常有必要,否则 阅读全文
posted @ 2021-01-10 09:56 lvdongjie-avatarx 阅读(523) 评论(0) 推荐(0) 编辑
摘要:经典机器学习算法,他们最本质的区别是分类思想(预测y的表达式)不同,有的是基于概率模型,有的是动态规划,表象的区别就是最后的损失函数不同。 损失函数分为经验风险损失函数和结构风险损失函数,经验风险损失函数反映的是预测结果和实际结果之间的差别,结构风险损失函数则是经验风险损失函数加上正则项(L0、L1 阅读全文
posted @ 2021-01-07 20:37 lvdongjie-avatarx 阅读(235) 评论(0) 推荐(0) 编辑
摘要:在使用机器学习算法过程中,针对不同的问题需要不用的模型评估标准,这里统一汇总。主要以两大类分类与回归分别阐述。 一、分类问题 1、混淆矩阵 混淆矩阵是监督学习中的一种可视化工具,主要用于比较分类结果和实例的真实信息。矩阵中的每一行代表实例的预测类别,每一列代表实例的真实类别。 真正(True Pos 阅读全文
posted @ 2021-01-07 19:35 lvdongjie-avatarx 阅读(234) 评论(0) 推荐(0) 编辑