摘要:https://www.jianshu.com/p/961e890e88b2
阅读全文
摘要:https://www.zhihu.com/question/37096933/answer/70507353 https://blog.csdn.net/red_stone1/article/details/80755144 机器学习中,如果参数过多,模型过于复杂,容易造成过拟合(overfit)
阅读全文
摘要:概念定义: http://m.elecfans.com/article/757041.html https://www.cnblogs.com/AndyJee/p/5048556.html P问题:能在多项式时间内解决的问题; NP问题:(Nondeterministic Polynomial ti
阅读全文
摘要:https://www.cnblogs.com/xunziji/p/7366580.html 最小二乘法的应用例子 如果某个资产在买入后,第 2-100 天内的收益变化如下图所示: 这时,我想要获得第 2-100 天内的任意收益,都是可以方便清晰获得的,但是如果我在第100天的时间,想要预估第107
阅读全文
摘要:https://blog.csdn.net/leviopku/article/details/81388306 https://blog.csdn.net/nockinonheavensdoor/article/details/82055147 https://blog.csdn.net/c9Yv2
阅读全文
摘要:https://blog.csdn.net/weixinhum/article/details/85227476
阅读全文
摘要:https://blog.csdn.net/weixinhum/article/details/85065350 假设q(x)是用来拟合p(x)的概率分布,x属于p的样本空间,交叉熵用于衡量q在拟合p的过程中,用于消除不确定性而充分使用的信息量大小(理解为衡量q为了拟合p所付出的努力,另外注意交叉熵
阅读全文
摘要:https://blog.csdn.net/weixinhum/article/details/85064685 上一篇文章我们简单介绍了信息熵的概念,知道了信息熵可以表达数据的信息量大小,是信息处理一个非常重要的概念。 对于离散型随机变量,信息熵公式如下:H(p)=H(X)=Ex∼p(x)[−lo
阅读全文
摘要:https://blog.csdn.net/weixinhum/article/details/85059557 上一篇文章我们简单介绍了香农信息量的概念,由香农信息量我们可以知道对于一个已知概率的事件,我们需要多少的数据量能完整地把它表达清楚,不与外界产生歧义。但对于整个系统而言,其实我们更加关心
阅读全文
摘要:https://blog.csdn.net/weixinhum/article/details/85059320 香农信息量: 只考虑连续型随机变量的情况。设p为随机变量X的概率分布,即p(x)为随机变量X在X=x处的概率密度函数值,随机变量X在x处的香农信息量定义为: 其中对数以2为底,这时香农信
阅读全文
摘要:https://blog.csdn.net/guolindonggld/article/details/79736508 https://www.jianshu.com/p/43318a3dc715?from=timeline&isappinstalled=0 KL散度(Kullback-Leibl
阅读全文
摘要:MFCC梅尔倒谱系数是说话人识别、语音识别中最为常用的特征。我曾经对这个特征困惑了很久,包括为什么步骤中要取对数,为什么要最后一步要做DCT等等,以下将把我的理解记录下来,我找到的参考文献中最有价值的要数【1】了。是CUM一个教授做的PPT。 整个流程如下: 时域的波形图如下 图1. 时域波形图 第
阅读全文