摘要:$$\begin{equation}\begin{split}\sum_{1 \le j,k \le n} {a_j b_k}& = (\sum_{j=1}^{n} {a_j})(\sum_{k=1}^{n} {b_k})\\\\& = \sum_{j=1}^{n} {a_j (\sum_{k=1}
阅读全文
摘要:参考: 哔哩哔哩 —— 06 最大熵模型 知乎 —— 最大熵模型-Max Entropy Model 刘建平 —— 最大熵模型原理小结
阅读全文
摘要:强烈推荐: 最通俗易懂的BiLSTM-CRF模型中的CRF层介绍 原文:CRF Layer on the Top of BiLSTM - 1 参考: 概率论09 期望 从全概率公式与贝叶斯公式原理讨论,引出贝叶斯估计理论及其具体应用 概率图模型(PGM):贝叶斯网(Bayesian network)
阅读全文
摘要:参考:[通俗理解]贝叶斯定理和隐马尔可夫模型 HMM学习最佳范例一:介绍 - 52nlp HMM学习最佳范例二:生成模式 - 52nlp 图解隐马尔可夫模型(HMM) 晴天会影响Bob的心情,happy或者grumpy。如何通过连续几天Bob的心情来判断这连续几天的天气情况。通过隐马尔可夫模型来计算
阅读全文
摘要:参考:状态转移:初识马尔科夫链 参考:小白都能看懂的马尔可夫链详解
阅读全文
摘要:条件概率 P(AB) = P(A)P(B|A) P(AB) = P(B)P(A|B) 乘法公式 P(ABC) = P(A)P(B|A)P(C|AB) 分成三步 P(A):A的概率 P(B|A):在A发生的情况下,B的概率 P(C|AB):在AB同时发生的情况下,C的概率 全概率公式 贝叶斯公式 先验
阅读全文
摘要:概率模型与条件概率 贝叶斯原理与推理 随机变量:联合概率 伯努利分布和二项式分布 多项式分布、伽玛分布和Beta分布 泊松分布、高斯分布、对数正态分布 贝叶斯概率解题实例 语言与智能:信息熵——演变和定义 语言与智能:交叉熵的定义 语言模型:语言概率 三元语言模型 马尔可夫链 隐马尔可夫模型 uni
阅读全文
摘要:参考:How to install keras-contrib keras_contrib是keras的一个高级网络实现模块,里面包含了用keras实现的CRF等高级网络层和相关算法。具体安装方法如下: 安装 git安装地址:https://git-scm.com/download/win全部默认即
阅读全文
摘要:参考:Stanford PoS Tagger: tagging from Python 参考:NLTK Part of Speech Tagging Tutorial # running the Stanford POS Tagger from NLTK import nltk from nltk
阅读全文
摘要:参考:Deep Learning with Python P196 一、不用 Sequential 模型的解决方案:Keras 函数式 API 一个多输入模型 一个多输出(或多头)模型 1.1 函数式 API 简介 都是按照输入输出的模式,以下两种模式是一致的。 from keras.models
阅读全文
摘要:参考:Deep Learning with Python P188 参考:deep-learning-with-python-notebooks/6.4-sequence-processing-with-convnets.ipynb 目录: 理解序列数据的一维卷积 序列数据的一维池化 实现一维卷积神
阅读全文
摘要:目录: 一、单词和字符的 one-hot 编码 二、使用词嵌入 2.1 利用 Embedding 层学习词嵌入 2.2 使用预训练的词嵌入 三、理解循环神经网络 四、理解 LSTM 层和 GRU 层 五、循环神经网络的高级用法 5.1 循环 dropout(recurrent dropout) 5.
阅读全文