math-girl-796

导航

 

2023年11月9日

摘要: 在settings.json里添加 { "C_Cpp.default.cStandard": "gnu99" } 关键是那个gnu,因为getopt.h是unix c标准里的,在standard c库里 阅读全文
posted @ 2023-11-09 16:27 mathgirl796 阅读(40) 评论(0) 推荐(0) 编辑
 

2021年3月6日

摘要: SVHN数据集官网:http://ufldl.stanford.edu/housenumbers/ SVHN数据集官方提供的有两种格式 Format1是那种在街上拍的照片,每张照片的尺寸都不同,然后label提供了照片上门牌上的所有数字,和每一个单独的数字的bounding box; Format2 阅读全文
posted @ 2021-03-06 18:41 mathgirl796 阅读(543) 评论(0) 推荐(0) 编辑
 

2021年2月17日

摘要: 将类似于 git clone https://github.com/graykode/nlp-tutorial 的命令改成 https://github.com.cnpmjs.org/graykode/nlp-tutorial 这样的,就可以了 阅读全文
posted @ 2021-02-17 18:34 mathgirl796 阅读(32) 评论(0) 推荐(0) 编辑
 

2021年1月31日

摘要: 以下内容基于对[中字]信息熵,交叉熵,KL散度介绍||机器学习的信息论基础这个视频的理解,请务必先看几遍这个视频。 假设一个事件可能有多种结果,每一种结果都有其发生的概率,概率总和为1,也即一个数据分布。我们可以用哈夫曼编码作为最佳编码方案编码这些事件,并将多次事件发生的情况信息以哈夫曼编码的形式传 阅读全文
posted @ 2021-01-31 17:01 mathgirl796 阅读(113) 评论(0) 推荐(0) 编辑
 

2021年1月30日

摘要: 假设有两类样本,A类和B类,我们要衡量分类器分类A的能力。 现在将所有样本输入分类器,分类器从中返回了一堆它认为属于A类的样本。 召回率:分类器认为属于A类的样本里,真正是A类的样本数,占样本集中所有真正A类样本的比例。也就是说,如果分类器认为所有样本都属于A类,那么它的召回率一定是100%,因为它 阅读全文
posted @ 2021-01-30 11:15 mathgirl796 阅读(179) 评论(0) 推荐(0) 编辑
 
摘要: 生成方法:由数据学习联合概率分布P(X,Y),然后求出条件概率分布P(Y|X)作为预测的模型 判别方法:由数据直接学习决策函数f(X)或者条件概率分布P(Y|X)作为预测的模型 生成方法的特点:可以还原出联合概率分布,学习收敛速度更快,可以处理隐变量 判别方法的特点:不能还原出联合概率分布,学习收敛 阅读全文
posted @ 2021-01-30 10:44 mathgirl796 阅读(47) 评论(0) 推荐(0) 编辑
 

2021年1月27日

摘要: x:观测到的样本。θ:概率模型的参数。 先验p(θ):对参数的各种取值的似然先入为主的判断 后验p(θ|x):给定样本后,对参数各种取值的似然做出的判断 似然p(x|θ):给定样本下,参数为真实值的可能性。或者,模糊地讲:参数与样本的匹配程度。 每一个样本集,对应着的模型,中的参数,的真实值,都记载 阅读全文
posted @ 2021-01-27 20:21 mathgirl796 阅读(768) 评论(0) 推荐(0) 编辑