知识图谱系列---自然语言处理---分词词向量与文本分类
【分词与词向量】
主要是 jieba 和 gensim.models.word2vec 使用
参数数据源:http://mattmahoney.net/dc/text8.zip
【自然语言处理】
【NLP之算法】:PayPal高级工程总监的100篇论文(附下载)
【NLP之算法】:蓦然回首之学习模型的评估系列文章(1-4)
【NLP之算法】:揭秘马尔可夫模型神秘面纱系列文章(1-5)
NLP中的预训练语言模型(一)—— ERNIE们和BERT-wwm
NLP中的预训练语言模型(二)—— Facebook的SpanBERT和RoBERTa
NLP中的预训练语言模型(三)—— XL-Net和Transformer-XL
NLP中的预训练语言模型(四)—— 小型化bert(DistillBert, ALBERT, TINYBERT)
NLP之文本挖掘:Python NLTK处理系列文章(1-5)
【文本分类实战】
【文本处理】自然语言处理在现实生活中运用
【文本处理】多种贝叶斯模型构建及文本分类的实现
【文本处理】快速了解什么是自然语言处理
【文本处理】领域本体构建方法概述
【文本处理】OpenNLP:驾驭文本,分词那些事
【文本处理】【NLP】Tika 文本预处理:抽取各种格式文件内容
【文本处理】自己动手搭建搜索工具
文本分类实战(五)—— Bi-LSTM + Attention模型
https://github.com/jiangsiwei2018/BigData.git
实例代码git仓库地址