上一页 1 2 3 4 5 6 ··· 38 下一页
摘要: 极大似然估计,通俗理解来说,就是利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果出现的模型参数值! 换句话说,极大似然估计提供了一种给定观察数据来评估模型参数的方法,即:“模型已定,参数未知”。 极大似然估计中采样需满足一个重要的假设,就是所有的采样都是独立同分布的。 首先看一下似 阅读全文
posted @ 2022-01-05 20:27 合唱团abc 阅读(188) 评论(0) 推荐(0) 编辑
摘要: 1、交叉熵的来源 一条信息的信息量大小和它反映的事件的不确定性有很大的关系,不确定性越大,则信息量越大。一句话如果需要很多外部信息才能确定,我们就称这句话的信息量比较大。比如你听到“云南西双版纳下雪了”,那你需要去看天气预报、问当地人等等查证(因为云南西双版纳从没下过雪)。相反,如果和你说“人一天要 阅读全文
posted @ 2021-12-30 16:20 合唱团abc 阅读(414) 评论(0) 推荐(0) 编辑
摘要: Logistic 回归的本质是:假设数据服从Logistic分布,然后使用极大似然估计做参数的估计。 1、Logistic 分布 Logistic 分布是一种连续型的概率分布,其分布函数和密度函数分别为: 其中, 表示位置参数, 为形状参数。我们可以看下其图像特征: Logistic 分布的形状与正 阅读全文
posted @ 2021-12-22 19:51 合唱团abc 阅读(350) 评论(0) 推荐(0) 编辑
摘要: 在卷积神经网络中,感受野的定义是 卷积神经网络每一层输出的特征图(feature map)上的像素点在原始图像上映射的区域大小。 原始输入为5*5大小,使用一个5*5大小的核,处理它,得到的结果为1*1大小, 卷积核参数为25。 原始输入是5*5大小,使用两次3*3大小的核,处理它,得到的结果为1* 阅读全文
posted @ 2021-12-21 21:01 合唱团abc 阅读(957) 评论(0) 推荐(0) 编辑
摘要: 背景:深度神经网络涉及到很多层的叠加,而每一层的参数更新会导致上层的输入数据分布发生变化,通过层层叠加,高层的输入分布变化会非常剧烈,这就使得高层需要不断去重新适应底层的参数更新。Google 将这一现象总结为 Internal Covariate Shift,简称 ICS. 所以ICS是什么呢?将 阅读全文
posted @ 2021-12-06 20:29 合唱团abc 阅读(164) 评论(0) 推荐(0) 编辑
摘要: 分类模型评估: 指标 描述 Scikit-learn函数 Precision AUC from sklearn.metrics import precision_score Recall 召回率 from sklearn.metrics import recall_score F1 F1值 from 阅读全文
posted @ 2021-10-25 21:06 合唱团abc 阅读(484) 评论(0) 推荐(0) 编辑
摘要: 作者:穆文链接:https://www.zhihu.com/question/62482926/answer/233521233来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 过拟合欠拟合(举几个例子让判断下,顺便问问交叉验证的目的、超参数搜索方法、EarlyStop 阅读全文
posted @ 2021-08-19 19:33 合唱团abc 阅读(346) 评论(0) 推荐(0) 编辑
摘要: 1、为什么分类问题不能使用mse损失函数 https://my.oschina.net/mathinside/blog/4537752 https://blog.csdn.net/u011913417/article/details/106358095 https://www.zhihu.com/q 阅读全文
posted @ 2021-03-04 17:15 合唱团abc 阅读(68) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2019-09-18 20:18 合唱团abc 阅读(1) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2019-09-10 09:34 合唱团abc 阅读(1) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 ··· 38 下一页