1. 识别率达到85%以上。虽然和专业分词系统相比有一定的差距,但对于中型搜索引擎分词需求而言足够了。
2. 对于前后歧义有较好的识别效果。如,
成都市场报刊 -- 成都 / 市场 / 报刊
中国和服装饰公司 -- 中国 / 和服 / 装饰 / 公司
我的MSN是eunge.liu@gmail.com,有事找我 -- 我 / 的 / MSN / 是 / eunge.liu@gmail.com / 有事 / 找 / 我
3. 标点符号自动过滤,包括ASCII和Unicode标点。
4. 自定义噪音词(不知道怎么翻译这个词StopWords,平时都说英语的,叫噪音词吧),可手动加入噪音词。
5. 内置13万优选的基本词库,已进行加权值整理,并提供编程接口任意扩充。
6. 轻量级的分词组件,仅1个DLL文件,无需安装注册,发布简便。开发更简单,只需要一行代码调用即可。
7.采用优化算法,加载速度非常快,13万的词库加载与分词仅需0.7秒(首次分词时需要加载词库,在我的笔记本迅驰1代1.4G上测试),之后每次分词(100字内)的速度在0.01秒以内,一般看不见用时,比如分词:
关于那些残忍图片,我不想再发了!!我是彻底愤怒了!!有网友强烈呼吁找出此人,
下面是我找到的一些资料!!!(我是新人,没有任何的道具,希望有前辈能帮忙多放气球)
--分词结果--
关于 / 那些 / 残忍 / 图片 / 我 / 不 / 想 / 再 / 发 / 了 / 我 / 是 / 彻底 / 愤怒 / 了 / 有 / 网友 / 强烈 / 呼吁 / 找出 / 此人 / 下面 / 是 / 我 / 找到 / 的 / 一些 / 资料 / 我 / 是 / 新人 / 没有 / 任何 / 的 / 道具 / 希望 / 有 / 前辈 / 能 / 帮忙 / 多 / 放 / 气球
分词用时:00:00:00 000
搜价网团队设计开发
网址:http://www.sj110.com/
下载地址:https://files.cnblogs.com/lovinger2000/ChineseTokenizer.zip
(内附DLL和Winform示例程序,及示例程序的源码)