摘要: 本文转载http://blog.csdn.net/jspamd/article/details/8194919 不同的Lucene分析器Analyzer,它对TokenStream进行分词的方法是不同的,这需要根据具体的语言来选择。比如英文,一般是通过空格来分割词条,而中文汉字则不能通过这种方式,... 阅读全文
posted @ 2015-11-12 17:46 243573295 阅读(783) 评论(0) 推荐(0) 编辑