alex_bn_lee

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

随笔分类 -  AI Related / NLP

上一页 1 2 3 下一页

【507】NLP实战系列(四)—— 实现一个最简单的NN
摘要:完成前三节的基础准备,就可以先撸个最简单的 NN 网络。 1. 获取训练数据与测试数据 按照如下代码实现,具体说明可以参见第三部分。 from keras.datasets import imdb from keras import preprocessing # Number of words t 阅读全文

posted @ 2020-12-27 13:44 McDelfino 阅读(180) 评论(0) 推荐(0) 编辑

【506】NLP实战系列(三)—— keras 读取及处理 IMDB 数据库
摘要:利用 IMDB 数据进行 Sentiment Analysis。 通过 keras.datasets 里面下载,注意下载的结构,并进行预处理。 from keras.datasets import imdb from keras import preprocessing # Number of wo 阅读全文

posted @ 2020-12-27 12:33 McDelfino 阅读(330) 评论(0) 推荐(0) 编辑

【505】NLP实战系列(二)—— keras 中的 Embedding 层
摘要:参考:嵌入层 Embedding 参考:Python3 assert(断言) 1. Embedding 层语法 keras.layers.Embedding(input_dim, output_dim, embeddings_initializer='uniform', embeddings_reg 阅读全文

posted @ 2020-12-25 23:37 McDelfino 阅读(487) 评论(0) 推荐(0) 编辑

【504】NLP实战系列(一)—— one-hot encoding
摘要:参考:Text Preprocessing —— Tokenizer 参考:Preprocessing » 文本预处理 对于 Embedding 层使用的输入,就是整数矩阵,并不是真正的 one-hot 向量,需要利用 Tokenizer 来实现。 1. Tokenizer 1.1 语法 keras 阅读全文

posted @ 2020-12-24 16:27 McDelfino 阅读(185) 评论(0) 推荐(0) 编辑

【503】Word Embedding 词嵌入的含义
摘要:参考:Word2Vec and FastText Word Embedding with Gensim 参考:An Intuitive Understanding of Word Embeddings: From Count Vectors to Word2Vec 参考:What the heck 阅读全文

posted @ 2020-12-11 22:49 McDelfino 阅读(121) 评论(0) 推荐(0) 编辑

【502】gensim实现Word2Vec
摘要:参考:Word Embedding Tutorial: word2vec using Gensim [EXAMPLE] 参考:NLP入门(三)词形还原(Lemmatization) 参考:文本分类实战(一)—— word2vec预训练词向量 参考:Implementing Word2Vec with 阅读全文

posted @ 2020-12-09 23:42 McDelfino 阅读(559) 评论(0) 推荐(0) 编辑

【501】pytorch教程之nn.Module类详解
摘要:参考:pytorch教程之nn.Module类详解——使用Module类来自定义模型 pytorch中对于一般的序列模型,直接使用torch.nn.Sequential类及可以实现,这点类似于keras,但是更多的时候面对复杂的模型,比如:多输入多输出、多分支模型、跨层连接模型、带有自定义层的模型等 阅读全文

posted @ 2020-12-06 14:25 McDelfino 阅读(3068) 评论(0) 推荐(1) 编辑

【499】PyTorch 相关
摘要:参考:PyTorch官方教程中文版 一、 PyTorch 安装 有些说明比较复杂,主要是国内网络限制,所以最好外网环境下安装哦,安装可以参考“PyTorch在Windows下的安装”这篇说明。对于我的安装是用的下面命令。 pip install torch==1.7.0+cpu torchvisio 阅读全文

posted @ 2020-11-27 09:18 McDelfino 阅读(172) 评论(0) 推荐(0) 编辑

【498】动态规划 —— Dynamic Programming
摘要:参考1:如何理解动态规划? 参考2:B站视频比较详细 参考3:详解动态规划算法 一、动态规划总结【参考3】 动态规划是用来解决最优问题(也可以用来求方案数)的一种方法,或者说是一种思想。而解决问题的过程,需要经历多个阶段,每一阶段都可以看成一个子问题,每个子问题都对应着一组状态。 使用动态规划一般会 阅读全文

posted @ 2020-11-25 21:22 McDelfino 阅读(120) 评论(0) 推荐(0) 编辑

【495】最大熵模型
摘要:参考: 哔哩哔哩 —— 06 最大熵模型 知乎 —— 最大熵模型-Max Entropy Model 刘建平 —— 最大熵模型原理小结 阅读全文

posted @ 2020-10-27 00:47 McDelfino 阅读(182) 评论(0) 推荐(0) 编辑

【494】条件随机场,crf
摘要:强烈推荐: 最通俗易懂的BiLSTM-CRF模型中的CRF层介绍 原文:CRF Layer on the Top of BiLSTM - 1 参考: 概率论09 期望 从全概率公式与贝叶斯公式原理讨论,引出贝叶斯估计理论及其具体应用 概率图模型(PGM):贝叶斯网(Bayesian network) 阅读全文

posted @ 2020-10-26 16:36 McDelfino 阅读(95) 评论(0) 推荐(0) 编辑

【493】隐马尔可夫模型
摘要:参考:[通俗理解]贝叶斯定理和隐马尔可夫模型 HMM学习最佳范例一:介绍 - 52nlp HMM学习最佳范例二:生成模式 - 52nlp 图解隐马尔可夫模型(HMM) 晴天会影响Bob的心情,happy或者grumpy。如何通过连续几天Bob的心情来判断这连续几天的天气情况。通过隐马尔可夫模型来计算 阅读全文

posted @ 2020-10-20 14:43 McDelfino 阅读(255) 评论(0) 推荐(0) 编辑

【492】状态转移:初识马尔科夫链
摘要:参考:状态转移:初识马尔科夫链 参考:小白都能看懂的马尔可夫链详解 阅读全文

posted @ 2020-10-17 17:02 McDelfino 阅读(219) 评论(0) 推荐(0) 编辑

【491】概率论与数理统计——宋浩 笔记
摘要:条件概率 P(AB) = P(A)P(B|A) P(AB) = P(B)P(A|B) 乘法公式 P(ABC) = P(A)P(B|A)P(C|AB) 分成三步 P(A):A的概率 P(B|A):在A发生的情况下,B的概率 P(C|AB):在AB同时发生的情况下,C的概率 全概率公式 贝叶斯公式 先验 阅读全文

posted @ 2020-10-15 23:31 McDelfino 阅读(1349) 评论(0) 推荐(0) 编辑

【490】自然语言处理算法精讲——笔记
摘要:概率模型与条件概率 贝叶斯原理与推理 随机变量:联合概率 伯努利分布和二项式分布 多项式分布、伽玛分布和Beta分布 泊松分布、高斯分布、对数正态分布 贝叶斯概率解题实例 语言与智能:信息熵——演变和定义 语言与智能:交叉熵的定义 语言模型:语言概率 三元语言模型 马尔可夫链 隐马尔可夫模型 uni 阅读全文

posted @ 2020-10-14 14:02 McDelfino 阅读(166) 评论(0) 推荐(0) 编辑

【491】安装 keras_contrib 高级网络实现模块详细方法
摘要:参考:How to install keras-contrib keras_contrib是keras的一个高级网络实现模块,里面包含了用keras实现的CRF等高级网络层和相关算法。具体安装方法如下: 安装 git安装地址:https://git-scm.com/download/win全部默认即 阅读全文

posted @ 2020-10-04 23:36 McDelfino 阅读(1175) 评论(0) 推荐(0) 编辑

【490】Stanford POS tagger 实现及相关含义
摘要:参考:Stanford PoS Tagger: tagging from Python 参考:NLTK Part of Speech Tagging Tutorial # running the Stanford POS Tagger from NLTK import nltk from nltk 阅读全文

posted @ 2020-10-02 22:31 McDelfino 阅读(411) 评论(0) 推荐(0) 编辑

【489】高级的深度学习最佳实践
摘要:参考:Deep Learning with Python P196 一、不用 Sequential 模型的解决方案:Keras 函数式 API 一个多输入模型 一个多输出(或多头)模型 1.1 函数式 API 简介 都是按照输入输出的模式,以下两种模式是一致的。 from keras.models 阅读全文

posted @ 2020-10-02 20:51 McDelfino 阅读(259) 评论(0) 推荐(0) 编辑

【488】用卷积神经网络处理序列
摘要:参考:Deep Learning with Python P188 参考:deep-learning-with-python-notebooks/6.4-sequence-processing-with-convnets.ipynb 目录: 理解序列数据的一维卷积 序列数据的一维池化 实现一维卷积神 阅读全文

posted @ 2020-10-01 17:07 McDelfino 阅读(171) 评论(0) 推荐(0) 编辑

【471】Keras 深度神经网络实现
摘要:参考:Keras 中文文档 参考:开始使用 Keras Sequential 顺序模型 Keras 的核心数据结构是 model,一种组织网络层的方式。最简单的模型是 Sequential 顺序模型,它由多个网络层线性堆叠。对于更复杂的结构,你应该使用 Keras 函数式 API,它允许构建任意的神 阅读全文

posted @ 2020-06-20 08:21 McDelfino 阅读(1339) 评论(0) 推荐(0) 编辑

上一页 1 2 3 下一页
点击右上角即可分享
微信分享提示