————致力于用代码改变世界
摘要: 关于深度学习模型不收敛问题解决办法 1. 问题重现 笔者在训练Vgg16网络时出现不收敛问题,具体描述为训练集准确率和测试集准确率一直稳定于某一值,如下图所示。 2. 可能的原因 2.1 数据问题 噪声数据。不平衡的数据集、含有噪声或异常值的数据可能导致模型难以学习,尝试更换数据集,出现这种问题比较难办。 数据预处理。确保数据质量,包 阅读全文
posted @ 2024-11-03 15:04 hello_nullptr 阅读(7) 评论(0) 推荐(0) 编辑
摘要: GoogLeNet训练CIFAR10[准确率83%+Pytorch+训练信息+.pth文件] 0 引言 GoogLeNet,它是一种深度卷积神经网络,由Google研究人员在2014年提出,用于图像识别任务。 CIFAR-10是一个常用的图像识别数据集,包含10个类别,每个类别有6000张32x32的彩色图像。 本文使用Pycharm及Pytorch框架搭建GoogLeNet神经网络框架,使 阅读全文
posted @ 2024-10-03 15:03 hello_nullptr 阅读(67) 评论(0) 推荐(0) 编辑
摘要: 0 前言 本文主要介绍极大似然估计的意义,并举出例题帮助读者理解。 1 思想 极大似然估计(Maximum Likelihood Estimation, MLE)是一种在统计学中估计模型参数的方法。它的基本思想是:找到一组参数值,使得在这组参数下,观测到的数据出现的概率(即似然函数)最大。 假如有一 阅读全文
posted @ 2024-09-09 23:24 hello_nullptr 阅读(75) 评论(0) 推荐(0) 编辑
摘要: 基于基尼指数构建分类决策树[算法+示例] 0 前言 本文主要讲述使用基尼指数构建二叉决策树的算法,并给出例题一步步解析,帮助读者理解。 本文所使用的数据集:贷款.CSV。 读者需要具备的知识:基尼指数计算。 1 基于基尼指数的分类树构建算法 选择最优特征进行分裂: 对于决策树的每个节点,遍历数据集中的所有特征。对于每个特征,考虑其所有可能的 阅读全文
posted @ 2024-09-07 14:51 hello_nullptr 阅读(61) 评论(0) 推荐(0) 编辑
摘要: 机器学习之——基尼指数的计算[例题] 0 前言 本文主要介绍基尼指数的计算公式及计算方法,并举出相关例题帮助理解。 读者需要提前了解:信息熵。 数据集:贷款.CSV。 1 基尼指数简述 基尼指数(Gini Index)是一个在多个领域都有应用的重要指标,但其主要应用之一是在决策树算法中,用于衡量数据集的不纯度或混乱程度。 基尼指数也被称 阅读全文
posted @ 2024-09-06 16:53 hello_nullptr 阅读(181) 评论(0) 推荐(0) 编辑
摘要: 决策树之——C4.5算法及示例 0 前言 本文主要讲述了决策树C4.5算法构建原理并举例说明。 读者需要具备的知识有:信息熵、条件熵、信息增益、信息增益比。 本文所使用的数据集为:西瓜数据集 1.2节。 1 C4.5算法流程 准备数据集: 输入数据集包含多个样本,每个样本具有多个特征(属性)和一个目标类别标签。 设置阈值: 初始化 阅读全文
posted @ 2024-09-04 15:40 hello_nullptr 阅读(183) 评论(0) 推荐(0) 编辑
摘要: 决策树之——ID3算法及示例 0 前言 本文主要介绍决策树ID3算法,并举出构建示例帮助理解。 读者需要具备的知识:信息熵、条件熵、信息增益。 本文使用数据集为:游玩数据集 1.1节、西瓜数据集 1.2节。 1 ID3算法简述 ID3(Iterative Dichotomiser 3)算法是一种经典的决策树学习算法,由Ross 阅读全文
posted @ 2024-09-03 21:35 hello_nullptr 阅读(222) 评论(0) 推荐(0) 编辑
摘要: 机器学习之——决策树信息增益比计算[程序+例题] 0 前言 本文主要介绍决策树信息增益比的计算,并给出例子帮助读者理解。 读者需要具备:信息熵、条件熵、信息增益 相关知识。 本文使用数据集:游玩数据集 1.1节。 1 信息增益比计算公式 2 信息增益比计算 2.1 gR(play,outlook)的计算 根据信息增益(跳转)相关知识,得出: 特征o 阅读全文
posted @ 2024-09-02 21:26 hello_nullptr 阅读(103) 评论(0) 推荐(0) 编辑
摘要: 机器学习之——决策树信息增益计算[程序+例题] 0 前言 本文主要介绍信息增益的计算公式并举出若干例子帮助理解。 读者需要具备的知识有:信息熵、条件熵。 本文所示用的数据集为:游玩数据集 1.1节 1 信息增益计算公式 g(D,A)表示在条件A下对于目标变量D的信息增益。 H(D)表示随机变量D的信息熵。 H(D|A)表示在随机变量A条件下对于目 阅读全文
posted @ 2024-09-02 17:57 hello_nullptr 阅读(128) 评论(0) 推荐(0) 编辑
摘要: 机器学习之——决策树条件熵计算[程序+例题] 0 前言 本文主要介绍决策树条件熵的计算并给出若干例子帮助理解。 读者需要具备信息熵计算知识,若不了解请看:信息熵 1 条件熵 2 数据集 游玩数据集,请看:数据集 1.1节 3 条件熵的计算 使用所给游玩数据集。计算H(play|outlook)的条件熵(在Y随机变量为outlook条件下,X随机 阅读全文
posted @ 2024-09-01 22:53 hello_nullptr 阅读(53) 评论(0) 推荐(0) 编辑