会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
就是琦哥
博客园
首页
新随笔
联系
订阅
管理
2017年12月8日
Spark 使用ansj进行中文分词
摘要: 在Spark中使用ansj分词先要将ansj_seg-5.1.1.jar和nlp-lang-1.7.2.jar加入工程 ansj源码github:https://github.com/NLPchina/ansj_seg ansj下载链接:https://oss.sonatype.org/conten
阅读全文
posted @ 2017-12-08 18:44 就是琦哥
阅读(4229)
评论(1)
推荐(0)
编辑
公告