摘要: 一. 问题: 在使用solr时, 分词器解析中文的时候, 是一个一个字解析的. 这并不是我们想要的结果. 而在lucene中, 使用的中文分词器是 IKAnalyzer. 那么在solr里面, 是不是任然可以用这个呢. 二. 整合 ik 1. 修改schema配置文件 打开如下路径中的managed 阅读全文
posted @ 2017-12-27 22:31 Sniper_ZL 阅读(1279) 评论(0) 推荐(0) 编辑
摘要: 前面 lucene 初探 都是为了solr打基础的. 虽然lucene 的filter 没有涉及, 但是打基础, 差不多够用了. 一. solr 和 lucene 的区别 这里我就用自己的理解来说了, 可能不全, 但是应该够用了, 网上能搜到官方一点的. 首先, solr 是基于 lucene的. 阅读全文
posted @ 2017-12-27 19:51 Sniper_ZL 阅读(1486) 评论(2) 推荐(0) 编辑
摘要: lucene初探, 是为了后面solr做准备的. 如果跳过lucene, 直接去看solr, 估计有点懵. 由于时间的关系, lucene查询方法也有多个, 所以单独出来. 一. 精确查询 在查询的时候, 新建一个Term对象, 进去精确匹配. 前一篇提到过, 经过分词器分下来的每一个词或者一段话, 阅读全文
posted @ 2017-12-27 19:49 Sniper_ZL 阅读(508) 评论(0) 推荐(0) 编辑