摘要:
数据降维和特征选择 阅读全文
摘要:
本文材料部分整理于互联网其他博客,仅做交流学习使用。文中涉及到的webdriver和BeautifulSoup的比较,是作者根据自己的经验总结来,有错之处也请交流告知,谢谢!!! 阅读全文
摘要:
1使用BN进行数据归一化的原因 a) 神经网络学习过程本质就是为了学习数据分布,一旦训练数据与测试数据的分布不同,那么网络的泛化能力也大大降低; b) 另外一方面,一旦每批训练数据的分布各不相同(batch 梯度下降),那么网络就要在每次迭代都去学习适应不同的分布,这样将会大大降低网络的训练速度. 阅读全文
摘要:
1.概率质量函数与概率密度函数 在概率论中,概率质量函数 (Probability Mass Function,PMF)是离散随机变量在各特定取值上的概率。概率质量函数和概率密度函数不同之处在于:概率密度函数是对连续随机变量定义的,本身不是概率,只有对连续随机变量的取值进行积分后才是概率。2.伯努利 阅读全文
摘要:
1交叉熵损失函数的由来1.1关于熵,交叉熵,相对熵(KL散度) 熵:香农信息量的期望。变量的不确定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大。其计算公式如下: 其是一个期望的计算,也是记录随机事件结果的平均编码长度(关于编码:一个事件结果的出现概率越低,对其编码的bit长度就越长。即无法压 阅读全文
摘要:
本文内容涉及梯度下降及其变形,牛顿法,共轭梯度法等多种优化方法,其中EM算法在本文中没有详细讲述。在后续文章中单独讲述。 当然,优化方法还包括各种启发性方法 ,本文没有讲述。 阅读全文
摘要:
本文主要涉及接受拒绝采样,重要性采样,蒙特卡洛方法,吉布斯采样等内容。部分内容整理与互联网。仅供交流学习使用! 阅读全文
摘要:
本文整理于网上多个博客的资源,如有冒犯,请联系作者:1403066284@qq.com.谢谢! 阅读全文