07 2019 档案
摘要:在使用jieba分词模块进行分词的处理之后,由于项目的需要,要写一个java的分词模块。浏览了jieba的GitHub网页之后发现:jieba的java部分已经是好久没有更新过了,并且jieba的java版本功能非常不完善(甚至没有按照词性分词的功能)。不过无可厚非就是了,毕竟jieba的口号是做最
阅读全文
摘要:前三次链接:中文自然语言处理(NLP)(一)python jieba模块的初步使用 中文自然语言处理(NLP)(二)python jieba模块的进一步学习和xlrd模块 中文自然语言处理(NLP)(三)运用python jieba模块计算知识点当中关键词的词频 问题叙述见上一次随笔。 上次留下来的
阅读全文
摘要:前两次链接:中文自然语言处理(NLP)(一)python jieba模块的初步使用 中文自然语言处理(NLP)(二)python jieba模块的进一步学习和xlrd模块 续上次的随笔之后,我已经基本掌握了jieba和xlrd的基本操作,现在开始运用这两个模块对数据进行一些处理。 情景大概如下:ex
阅读全文
摘要:上一次链接:中文自然语言处理(NLP)(一)python jieba模块的初步使用 续上次对于jieba模块的介绍,这次主要是一些jieba模块的进一步的应用,以及在这次的项目里面和xlrd模块结合起来的应用。 1.jieba带词性的分词 jieba的词性标注posseg:词性标注也叫此类标注,po
阅读全文
摘要:1.jieba分词的安装 直接在cmd窗口当中pip install即可 2.jieba分词的介绍 jieba分词是目前比较好的中文分词组件之一,jieba分词支持三种模式的分词(精确模式、全模式、搜索引擎模式),并且支持自定义词典(这一点在特定的领域很重要,有时候需要根据领域的需要来添加特定的词典
阅读全文