05 2017 档案
摘要:来自:系统之家:http://www.xitongzhijia.net/xtjc/20160316/69125.html 我们在网络上下载或在U盘中复制的文件正常来说和源文件是一样的,但有时在下载或拷贝出错的情况下,我们会发现它和源文件是不一样的,这主要体现在SHA1和MD5的哈希值不同。SHA1和MD5都是可唯一确定文件的重要标志,只有SHA1或者MD5值一致才能保证下载到的文件是正确...
阅读全文
摘要:1. zip()函数 它的作用是从参数中按顺序一一抽出子参数组出一个新的tuple. 直接看例子: >>> mean = np.array([2, 5, 4]) >>> out = zip('RGB', mean, 'ABC') >>> out [('R', 2, 'A'), ('G', 5, 'B'), ('B', 4, 'C')] 注意:当输入的参数的长度不同时, zip()函数会截取最...
阅读全文
摘要:如果万一大家不小心检索到了本篇文章,为了不浪费大家的时间,请大家直接看 http://blog.csdn.net/itplus/article/details/19168937, 写在很好,太好好好!!!(本篇内容仅仅用于我的自我复习) 长什么样? 它长这样子: 它的特点: 在给定可见层单元状态(输
阅读全文
摘要:看了好多相关的知识,大致了解了一下马尔可夫链-蒙特卡罗采样理论,有必要记来下来。 蒙特卡罗积分:(来自:http://blog.csdn.net/itplus/article/details/19168937) 下面的写的很让人明白:好好理解一下,第一次感觉到积分与统计学的联系。 利用蒙特卡罗方法求积分的重点就是怎么如何采样指定的分布。。。。简单的分布如均匀分布我们有方法可以采样,...
阅读全文
摘要:这是一篇发表于2008年初的论文。 文章主要讲了利用 denosing autoencoder来学习 robust的中间特征。。进上步,说明,利用这个方法,可以初始化神经网络的权值。。这就相当于一种非监督学习的方法来训练神经网络。 当我们在用神经网络解决各种识别任务时,如果我们想要网络的性能更好,就需要更深层或更wider的神经网络来建模,Model出更复杂的分布。 网络变深以后,如何训练是...
阅读全文
摘要:信息熵: 1. 热力学中的热熵是表示分子状态混乱程度的物理量。香农用信息熵的概念来描述信源的不确定度。 2. ;两个独立符号所产生的不确定性应等于各自不确定性之和 3. 在信源中,考虑的不是某一单个符号发生的不确定性,而是要考虑这个信源所有可能发生情况的平均不确定性。 对于当个符号,它的概率为p时,
阅读全文
摘要:legend()的一个用法: 当我们有多个 axes时,我们如何把它们的图例放在一起呢?? 我们可以这么做: import matplotlib.pyplot as plt import numpy as np x = np.arange(1, 11) fig = plt.figure(1) ax1 = plt.subplot(2, 1, 1) ax2 = plt.subplot(2, 1, ...
阅读全文