摘要: 1、信息量: 公式:I(x) = -logp(x),单从公式上也可以看出,概率越低熵越大(低概率事件带来的高信息量)。通俗一点来说的话,就是概率论中很简单的推广就行了。 2、熵的定义: (1)上面的 I(x) 是指在某个概率分布之下,某个概率值对应的信息量的公式。那么我们要知道这整个概率分布对应的信 阅读全文
posted @ 2018-03-20 20:57 baibaibaiyou 阅读(959) 评论(0) 推荐(0) 编辑
摘要: 先验概率:是指根据以往经验和分析得到的概率。如全概率公式,他往往作为“由因求果”问题中的“因”出现。 后验概率:是指得到“结果”的信息后重新修正的概率。 我的理解就是,先验的过程就相当于做实验,获取训练数据,都是有特征有标签的。我可以通过样本计算出任意标签出现的概率(这里的概率就是先验概率);而后验 阅读全文
posted @ 2018-03-20 20:24 baibaibaiyou 阅读(1036) 评论(0) 推荐(0) 编辑
摘要: (1)从尾到头打印链表:典型的先进后出,可以用栈实现这种循序(python里的list即可,list.insert(0,ListNode)) (2)输入一个链表,输出该链表中倒数第k个结点:用list实现,list长度超过k就删除最前面的结点,直到遍历完链表,输出list最首位置的结点(考察所写代码 阅读全文
posted @ 2018-03-17 17:27 baibaibaiyou 阅读(129) 评论(2) 推荐(1) 编辑
摘要: 词向量是用来干什么的? ①有人拿它寻找近义词或者相关词,直接根据向量空间里的距离远近来判定词的关系。②也有不少早期的工作,直接拿词向量做特征,在现有系统中加入词向量作为特征。特征嘛,就是要个多样性,虽然不知道词向量包含了什么信息,但是说不定就带着新的信息,效果就能提升了。③还有大量基于神经网络的工作 阅读全文
posted @ 2018-03-16 22:36 baibaibaiyou 阅读(301) 评论(0) 推荐(0) 编辑
摘要: 题目:给定一个二叉树其中的一个结点(此节点可以为二叉树任意一个节点),请找出中序遍历顺序的下一个结点并且返回。注意,树中的结点不仅包含左右子结点,同时包含指向父结点的指针。 此二叉树的中序遍历为:8、4、9、2、10、5、1、6、3、7 思路: (1)如果此结点有右结点:返回 此结点的右结点 的最左 阅读全文
posted @ 2018-03-15 18:14 baibaibaiyou 阅读(326) 评论(0) 推荐(0) 编辑
摘要: 递归代码:递归实现很简单 二叉树图: 运行结果: 非递归实现:以前序遍历为例,基本思想为 (1)由于采取前序遍历,遇到节点就应该访问,下一步应该沿着树的左分支下行。 (2)但节点的右分支(右子树)还没有访问,因此需要记录,将右子结点入栈。 (3)遇到空树时回溯,取出栈中保存的一个右分支,像一棵二叉树 阅读全文
posted @ 2018-03-15 16:58 baibaibaiyou 阅读(519) 评论(1) 推荐(0) 编辑
摘要: 运行结果: 原链接 阅读全文
posted @ 2018-03-15 15:47 baibaibaiyou 阅读(6234) 评论(0) 推荐(1) 编辑
摘要: 1损失函数和代价函数的区别: 损失函数(Loss function):指单个训练样本进行预测的结果与实际结果的误差。 代价函数(Cost function):整个训练集,所有样本误差总和(所有损失函数总和)的平均值。(这一步体现在propagate()函数中的第32行) 阅读全文
posted @ 2017-11-24 21:44 baibaibaiyou 阅读(827) 评论(0) 推荐(0) 编辑
摘要: 使用array时,运算符 * 用于计算数量积(点乘),函数 dot() 用于计算矢量积(叉乘).使用matrix时,运算符 * 用于计算矢量积,函数 multiply() 用于计算数量积. 下面是使用array时: 1. 同线性代数中矩阵乘法的定义: np.dot() np.dot(A, B):对于 阅读全文
posted @ 2017-11-24 21:32 baibaibaiyou 阅读(8607) 评论(0) 推荐(1) 编辑
摘要: 此内容主要针对于吴恩达的神经网络与深度学习课后作业(第一课第二周的作业)进行学习,记录。 参考连接https://github.com/andersy005/deep-learning-specialization-coursera 说明 实现功能:这段代码主要实现的功能是判断一张图片是否有cat, 阅读全文
posted @ 2017-11-16 11:17 baibaibaiyou 阅读(7029) 评论(0) 推荐(0) 编辑