摘要: 交叉熵损失函数 标签(空格分隔): 损失函数 在得到预测结果之后我们使用softmax对预测概率进行归一化,softmax之后产生的$\hat{y}_i$之中的参数之和为1,并且每个参数都是0~1之间,在归一化结束之后因为其用的是指数函数所以较大的值只会更大。下面用一个简单的图像分类例子开始讲解,下 阅读全文
posted @ 2021-07-29 20:14 X-POWER 阅读(383) 评论(0) 推荐(0) 编辑
摘要: softmax回归 标签(空格分隔): 深度学习 回归估计一个连续值, 分类预测一个离散类别。 在上一节学习了线性回归问题,回归可以用于预测多少的问题。比如预测房屋被出售的价格,或者棒球队可能获得的胜利数量,又或者患者住院的天数。事实上,我们经常对分类问题感兴趣:不是问“多少”,而是问“哪一个”。 阅读全文
posted @ 2021-07-29 20:14 X-POWER 阅读(143) 评论(0) 推荐(0) 编辑
摘要: 线性回归 标签(空格分隔): 深度学习 我们举一个实际的例子:我们希望根据房屋的面积和房龄来预计房屋价格。为了开发一个能够预测房价的模型,我们需要收集一个真实的数据集。 该数据集包括:房屋的销售价格,房龄和面积。在机器学习的术语中,该数据集成为训练数据集或训练集,每一行数据被称为样本,也可成为数据点 阅读全文
posted @ 2021-07-29 20:13 X-POWER 阅读(685) 评论(0) 推荐(0) 编辑
摘要: 极大似然估计 标签(空格分隔): 数学 最大似然估计(maximun likelihood estimate)是一种统计方法,它用来求一个样本集的相关概率密度函数的参数。这个方法最早是遗传学家以及统计学家哦罗纳德·费雪爵士在1912至1922年间开始使用的。 似然是对likelihood的一种较为贴 阅读全文
posted @ 2021-07-29 20:13 X-POWER 阅读(1130) 评论(0) 推荐(0) 编辑