会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
深度预习
博客园
首页
新随笔
联系
管理
订阅
2019年10月29日
基于统计模型的中文分词方法
摘要: 统计分词: 统计分词的主要思想是把每个词看做是由字组成的,如果相连的字在不同文本中出现的次数越多,就证明这段相连的字很有可能就是一个词。 统计分词一般做如下两步操作: 1.建立统计语言模型(n-gram) 2.对句子进行单词划分,然后对划分结果做概率计算,获取概率最大的分词方式。这里就用到了统计学习
阅读全文
posted @ 2019-10-29 14:04 深度预习
阅读(3102)
评论(1)
推荐(1)
编辑
公告