摘要:
为什么要解决样本不均衡问题? 样本不均衡是指在分类任务的训练集中某些类的样本特别多,某些类的样本特别少的情况。由于模型训练时的代价函数是每一批次样本损失的和,因此样本比较多的类别会贡献更多的损失,样本比较少的类别会贡献比较少的损失,这样模型有可能会错误地认为这是一种先验,即某些类样本比较多,某些类样 阅读全文
posted @ 2022-04-17 17:04
肖肖凯
阅读(273)
评论(0)
推荐(0)
摘要:
监督集成学习 引言 主要有bagging、boosting、stacking三种,其中bagging需要基学习器同时具备高性能与高度的数据敏感性,boosting算法在训练有噪声数据时容易产生过拟合问题。 bagging 通过自助采样法得到不同分布的训练子集,然后用不同训练子集训练基学习器,最后采取 阅读全文
posted @ 2022-04-17 13:13
肖肖凯
阅读(247)
评论(0)
推荐(0)