摘要: 在机器学习的实践中,我们通常会遇到实际数据中正负样本比例不平衡的情况,也叫数据倾斜。对于数据倾斜的情况,如果选取的算法不合适,或者评价指标不合适,那么对于实际应用线上时效果往往会不尽人意,所以如何解决数据不平衡问题是实际生产中非常常见且重要的问题。 什么是类别不平衡问题 我们拿到一份数据时,如果是二 阅读全文
posted @ 2019-08-27 12:12 _再遇见 阅读(887) 评论(0) 推荐(0) 编辑
摘要: 在机器学习中,我们经常会分类为有监督学习和无监督学习,但是尝尝会忽略一个重要的分支,强化学习。有监督学习和无监督学习非常好去区分,学习的目标,有无标签等都是区分标准。如果说监督学习的目标是预测,那么强化学习就是决策,它通过对周围的环境不断的更新状态,给出奖励或者惩罚的措施,来不断调整并给出新的策略。 阅读全文
posted @ 2019-08-27 12:02 _再遇见 阅读(1194) 评论(0) 推荐(0) 编辑
摘要: 我们通常是拿到一个任务,譬如图像分类、识别等,搜集好数据后就开始直接用模型进行训练,但是现实情况中,由于设备的局限性、时间的紧迫性等导致我们无法从头开始训练,迭代一两百万次来收敛模型,所以这个时候迁移学习就派上用场了。 什么是迁移学习? 迁移学习通俗来讲,就是运用已有的知识来学习新的知识,核心是找到 阅读全文
posted @ 2019-08-27 11:47 _再遇见 阅读(607) 评论(0) 推荐(0) 编辑
摘要: 神经网络本身包含了一系列特征提取器,理想的feature map应该是稀疏的以及包含典型的局部信息。通过模型可视化能有一些直观的认识并帮助我们调试模型,比如:feature map与原图很接近,说明它没有学到什么特征;或者它几乎是一个纯色的图,说明它太过稀疏,可能是我们feature map数太多了 阅读全文
posted @ 2019-08-27 11:35 _再遇见 阅读(1708) 评论(1) 推荐(0) 编辑
摘要: 回顾 简单的浅层神经网络,如三层的卷积神经网络等,在层数比较少的时候,有时候效果往往并没有那么好,在实验过程中发现,当尝试增加网络的层数,或者增加每一层网络的神经元个数的时候,对准确率有一定的提升,简单的说就是增加网络的深度与宽度,但这样做有两个明显的缺点: 更深更宽的网络意味着更多的参数,提高了模 阅读全文
posted @ 2019-08-27 11:13 _再遇见 阅读(1217) 评论(0) 推荐(0) 编辑