摘要:定义LSTM单元 对比下图 其中$c_t$与$h_t$的维度是相同的, $dim(f_t)=dim(c_{t 1})=dim(h_{t 1})$ 这里 就是指 图中隐藏向量h的维度, Reference 李宏毅 Machine Learning 课程 阅读全文
tensorflow 设置显存占用自增长和指定GPU
2018-07-02 09:28 by JohnRain, 2889 阅读, 0 推荐, 收藏, 编辑
摘要:指定GPU 如果要在python代码中设置使用的GPU(如使用pycharm进行调试时),可以使用下面的代码 制定显存 定量设置显存 默认tensorflow是使用GPU尽可能多的显存。可以通过下面的方式,来设置使用的GPU显存: 按需设置显存 阅读全文
条件随机场(CRF)的理解
2018-07-01 19:27 by JohnRain, 17540 阅读, 0 推荐, 收藏, 编辑
摘要:Motivation 学习CRF的过程中,我发现很多资料,教程上来就给一堆公式,并不知道这些公式是怎么来的。 所以我想以面向问题的形式,分享一下自己对CRF用于序列标注问题的理解 问题定义 给定观测序列$X=(X_1,X_2,X_3,...X_n)$, 应该注意以下几点: 输入$X=(X_1,X_2 阅读全文
隐式马尔科夫模型
2018-07-01 16:03 by JohnRain, 536 阅读, 0 推荐, 收藏, 编辑
摘要:隐式马尔科夫模型 设Q是所有可能的状态的集合, V是所有可能的观察的集合 $$ Q = \{ q_1,q_2,..,q_N\}, V = \{v_1,v_2,...,v_M\} $$ N是所有可能的状态数, M是所有可能的观测数 $I$ 是长度为$T$的状态序列, $O$是对应的观测序列 $$ I= 阅读全文
Word2vec 模型理解
2018-07-01 15:36 by JohnRain, 585 阅读, 0 推荐, 收藏, 编辑
摘要:通过倒叙的方式讲解word2vec训练词向量的过程, 满足浮躁的初学者理解模型 目标 明确我们的目标, 我们希望能够在给定的大量的文档, 学习出文档中每个词的词向量. 这里对词向量训练好坏的最直观的标准是: 具有相似上下文的词, 它们的词向量越相近 粗糙的流程 训练数据 对于文档中的每个目标词, 我们找出它的上下文, 并且与目标词分别匹配生成一组词对, 例如: 怎样 和... 阅读全文