摘要:
def perm(s=''): if len(s) <= 1: return [s] sl = [] for i in range(len(s)): for j in perm(s[0:i] + s[i + 1:]): sl.append(s[i] + j) return sl def main(): ... 阅读全文
摘要:
1、条件随机场:它基于马尔科夫随机场,是一种无向概率图模型,它的最大团所对应的随机变量的条件概率分布叫做条件随机场,通过转移概率和发射概率求解条件分布概率的。 公式: 2、Wordvec输出层的优化: (1)哈夫曼树:从根节点求取叶子节点路径的最大概率 (2)负例采样:根据词频与整数集合的映射,选负 阅读全文
摘要:
阅读全文
摘要:
转自 http://www.cnblogs.com/ModifyRong/p/7739955.html 1.简介 逻辑回归是面试当中非常喜欢问到的一个机器学习算法,因为表面上看逻辑回归形式上很简单,很好掌握,但是一问起来就容易懵逼。所以在面试的时候给大家的第一个建议不要说自己精通逻辑回归,非常容易被 阅读全文
摘要:
猴子吃果冻 猴子吃果冻 博客园 首页 新随笔 联系 管理 订阅 随笔- 35 文章- 0 评论- 3 4-EM算法原理及利用EM求解GMM参数过程 1.极大似然估计 原理:假设在一个罐子中放着许多白球和黑球,并假定已经知道两种球的数目之比为1:3但是不知道那种颜色的球多。如果用放回抽样方法从罐中取5 阅读全文
摘要:
解释一下rev函数的实现过程: line 9-11是将原链表的第一个节点变成了新链表的最后一个节点,同时将原链表的第二个节点保存在cur中 line13-16就是从原链表的第二个节点开始遍历到最后一个节点,将所有节点翻转一遍 以翻转第二个节点为例 temp = cur.next是将cur的下一个节点 阅读全文
摘要:
Transformer改进了RNN最被人诟病的训练慢的缺点,利用self-attention机制实现快速并行。 它是由编码组件、解码组件和它们之间的连接组成。 编码组件部分由一堆编码器(6个 encoder)构成。解码组件部分也是由相同数量(与编码器对应)的解码器(decoder)组成的。 所有的编 阅读全文
摘要:
逻辑回归是假设数据服从独立且服从伯努利分布,多用于二分类场景,应用极大似然估计构造损失函数,并使用梯度下降法对参数进行估计。 阅读全文
摘要:
1. Gradient boosting(GB) Gradient boosting的思想是迭代生多个(M个)弱的模型,然后将每个弱模型的预测结果相加,后面的模型Fm+1(x)基于前面学习模型的Fm(x)的效果生成的,关系如下: 实际中往往是基于loss Function 在函数空间的的负梯度学习, 阅读全文
摘要:
https://www.cnblogs.com/ZhangRuoXu/p/6370107.html https://blog.csdn.net/tianguiyuyu/article/details/80689213 阅读全文