alex_bn_lee

导航

< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

统计

随笔分类 -  AI Related / NLP

上一页 1 2 3

【470】Keras API 参考说明
摘要:参考:Keras API reference 参考:Keras layers API 目录: to_categorical() randint() random() Sequential() Model training APIs compile() fit() evaluate() predict 阅读全文

posted @ 2020-06-19 10:47 McDelfino 阅读(367) 评论(0) 推荐(0) 编辑

【469】RNN, LSTM参考博客
摘要:参考:【推荐】ML Lecture 21-1: Recurrent Neural Network (Part I) 参考:Illustrated Guide to Recurrent Neural Networks 参考:Illustrated Guide to LSTM’s and GRU’s: 阅读全文

posted @ 2020-06-15 17:25 McDelfino 阅读(299) 评论(0) 推荐(0) 编辑

【465】词干提取与词形还原
摘要:词干(word stem)表示每个单词的主体部分。词干提取(stemming)就是提取词干的过程,通常是删除常见的后缀来实现。 词形还原(lemmatization)考虑了单词在句子中的作用,单词的标准化形式为词元(lemma)。 词干提取和词形还原这两种处理方法都是标准化(normalizatio 阅读全文

posted @ 2020-05-18 23:58 McDelfino 阅读(1380) 评论(0) 推荐(0) 编辑

【464】文本转字符向量bag of words
摘要:利用 sklearn.feature_extraction.text 中的 CountVectorizer 来实现 首先获取所有的文本信息 然后将文本信息转化为从 0 开始的数字 获取转换后的字符向量 参见如下代码: >>> text_01 = "My name is Alex Lee." >>> 阅读全文

posted @ 2020-05-16 20:55 McDelfino 阅读(242) 评论(0) 推荐(0) 编辑

【460】循环神经网络 RNN
摘要:参考:An Introduction to Recurrent Neural Networks for Beginners 其中每一个彩色框都是一排神经元,相当于普通 NN 的一层,例如 X0 为 input 层,然后 h0 为 hidden 层,y0 为 output 层; 以此类推,X1...X 阅读全文

posted @ 2020-02-20 21:23 McDelfino 阅读(247) 评论(0) 推荐(0) 编辑

【458】keras 文本向量化 Vectorization
摘要:相关类与方法说明: from keras.preprocessing.text import Tokenizer Tokenizer:文本标记实用类。该类允许使用两种方法向量化一个文本语料库: 将每个文本转化为一个整数序列(每个整数都是词典中标记的索引); 或者将其转化为一个向量,其中每个标记的系数 阅读全文

posted @ 2020-02-11 09:43 McDelfino 阅读(497) 评论(0) 推荐(0) 编辑

【448】NLP, NER, PoS
摘要:目录: 1. 停用词(stopwords) ref: Removing stop words with NLTK in Python ref: Remove Stop Words 2. 介词(prepositions, part of speech) ref: How do I remove ver 阅读全文

posted @ 2019-11-08 13:12 McDelfino 阅读(630) 评论(0) 推荐(0) 编辑

上一页 1 2 3
点击右上角即可分享
微信分享提示