摘要:完成前三节的基础准备,就可以先撸个最简单的 NN 网络。 1. 获取训练数据与测试数据 按照如下代码实现,具体说明可以参见第三部分。 from keras.datasets import imdb from keras import preprocessing # Number of words t
阅读全文
摘要:利用 IMDB 数据进行 Sentiment Analysis。 通过 keras.datasets 里面下载,注意下载的结构,并进行预处理。 from keras.datasets import imdb from keras import preprocessing # Number of wo
阅读全文
摘要:参考:嵌入层 Embedding 参考:Python3 assert(断言) 1. Embedding 层语法 keras.layers.Embedding(input_dim, output_dim, embeddings_initializer='uniform', embeddings_reg
阅读全文
摘要:参考:Text Preprocessing —— Tokenizer 参考:Preprocessing » 文本预处理 对于 Embedding 层使用的输入,就是整数矩阵,并不是真正的 one-hot 向量,需要利用 Tokenizer 来实现。 1. Tokenizer 1.1 语法 keras
阅读全文
摘要:参考:Word2Vec and FastText Word Embedding with Gensim 参考:An Intuitive Understanding of Word Embeddings: From Count Vectors to Word2Vec 参考:What the heck
阅读全文
摘要:参考:Word Embedding Tutorial: word2vec using Gensim [EXAMPLE] 参考:NLP入门(三)词形还原(Lemmatization) 参考:文本分类实战(一)—— word2vec预训练词向量 参考:Implementing Word2Vec with
阅读全文
摘要:参考:pytorch教程之nn.Module类详解——使用Module类来自定义模型 pytorch中对于一般的序列模型,直接使用torch.nn.Sequential类及可以实现,这点类似于keras,但是更多的时候面对复杂的模型,比如:多输入多输出、多分支模型、跨层连接模型、带有自定义层的模型等
阅读全文
摘要:参考:PyTorch官方教程中文版 一、 PyTorch 安装 有些说明比较复杂,主要是国内网络限制,所以最好外网环境下安装哦,安装可以参考“PyTorch在Windows下的安装”这篇说明。对于我的安装是用的下面命令。 pip install torch==1.7.0+cpu torchvisio
阅读全文
摘要:参考1:如何理解动态规划? 参考2:B站视频比较详细 参考3:详解动态规划算法 一、动态规划总结【参考3】 动态规划是用来解决最优问题(也可以用来求方案数)的一种方法,或者说是一种思想。而解决问题的过程,需要经历多个阶段,每一阶段都可以看成一个子问题,每个子问题都对应着一组状态。 使用动态规划一般会
阅读全文
摘要:参考: 哔哩哔哩 —— 06 最大熵模型 知乎 —— 最大熵模型-Max Entropy Model 刘建平 —— 最大熵模型原理小结
阅读全文
摘要:强烈推荐: 最通俗易懂的BiLSTM-CRF模型中的CRF层介绍 原文:CRF Layer on the Top of BiLSTM - 1 参考: 概率论09 期望 从全概率公式与贝叶斯公式原理讨论,引出贝叶斯估计理论及其具体应用 概率图模型(PGM):贝叶斯网(Bayesian network)
阅读全文
摘要:参考:[通俗理解]贝叶斯定理和隐马尔可夫模型 HMM学习最佳范例一:介绍 - 52nlp HMM学习最佳范例二:生成模式 - 52nlp 图解隐马尔可夫模型(HMM) 晴天会影响Bob的心情,happy或者grumpy。如何通过连续几天Bob的心情来判断这连续几天的天气情况。通过隐马尔可夫模型来计算
阅读全文
摘要:参考:状态转移:初识马尔科夫链 参考:小白都能看懂的马尔可夫链详解
阅读全文
摘要:条件概率 P(AB) = P(A)P(B|A) P(AB) = P(B)P(A|B) 乘法公式 P(ABC) = P(A)P(B|A)P(C|AB) 分成三步 P(A):A的概率 P(B|A):在A发生的情况下,B的概率 P(C|AB):在AB同时发生的情况下,C的概率 全概率公式 贝叶斯公式 先验
阅读全文
摘要:概率模型与条件概率 贝叶斯原理与推理 随机变量:联合概率 伯努利分布和二项式分布 多项式分布、伽玛分布和Beta分布 泊松分布、高斯分布、对数正态分布 贝叶斯概率解题实例 语言与智能:信息熵——演变和定义 语言与智能:交叉熵的定义 语言模型:语言概率 三元语言模型 马尔可夫链 隐马尔可夫模型 uni
阅读全文
摘要:参考:How to install keras-contrib keras_contrib是keras的一个高级网络实现模块,里面包含了用keras实现的CRF等高级网络层和相关算法。具体安装方法如下: 安装 git安装地址:https://git-scm.com/download/win全部默认即
阅读全文
摘要:参考:Stanford PoS Tagger: tagging from Python 参考:NLTK Part of Speech Tagging Tutorial # running the Stanford POS Tagger from NLTK import nltk from nltk
阅读全文
摘要:参考:Deep Learning with Python P196 一、不用 Sequential 模型的解决方案:Keras 函数式 API 一个多输入模型 一个多输出(或多头)模型 1.1 函数式 API 简介 都是按照输入输出的模式,以下两种模式是一致的。 from keras.models
阅读全文
摘要:参考:Deep Learning with Python P188 参考:deep-learning-with-python-notebooks/6.4-sequence-processing-with-convnets.ipynb 目录: 理解序列数据的一维卷积 序列数据的一维池化 实现一维卷积神
阅读全文
摘要:参考:Keras 中文文档 参考:开始使用 Keras Sequential 顺序模型 Keras 的核心数据结构是 model,一种组织网络层的方式。最简单的模型是 Sequential 顺序模型,它由多个网络层线性堆叠。对于更复杂的结构,你应该使用 Keras 函数式 API,它允许构建任意的神
阅读全文