上一页 1 2 3 4 5 6 7 8 9 ··· 18 下一页
摘要: 主要知识点: 分组聚合操作—嵌套bucket。 本讲以前面电商实例,从颜色到品牌进行下钻分析,每种颜色的平均价格,以及找到每种颜色每个品牌的平均价格。 比如说,现在红色的电视有4台,同时这4台电视中,有3台是属于长虹的,1台是属于小米的,那么: 红色电视中的3台长虹的平均价格是多少? 红色电视中的1台小米的平均价格是多少? 下钻的意思是,已经... 阅读全文
posted @ 2018-03-09 20:16 outback123 阅读(433) 评论(0) 推荐(0) 编辑
摘要: 课程大纲 要学其他的metric(count,avg,max,min,sum) count:bucket,terms,自动就会有一个doc_count,就相当于是count avg:avg aggs,求平均值 max:求一个bucket内,指定field值最大的那个数据 min:求一个bucket内,指定field值最小的那个数据 sum:求一个bucket内,指定f... 阅读全文
posted @ 2018-03-09 20:16 outback123 阅读(179) 评论(0) 推荐(0) 编辑
摘要: 主要知识点: bucket+metric 计算分种颜色的电视的平均价格 语法: GET /tvs/sales/_search { "size" : 0, "aggs": { "colors": { "terms": { "field": "color" }, "aggs": { ... 阅读全文
posted @ 2018-03-09 20:15 outback123 阅读(382) 评论(0) 推荐(0) 编辑
摘要: 主要知识点: 学习聚合知识 一、准备数据 1、家电卖场案例背景建立index 以一个家电卖场中的电视销售数据为背景,来对各种品牌,各种颜色的电视的销量和销售额,进行各种各样角度的分析 PUT /tvs { "mappings": { "sales": { "properties": { "price": { "type": "long" }, "col... 阅读全文
posted @ 2018-03-09 20:14 outback123 阅读(310) 评论(0) 推荐(0) 编辑
摘要: 主要知识点, 修改IK分词器源码来基于mysql热更新词库 一、IK增加新词的原因 在第32小节中学习到了直接在es的词库中增加词语,来扩充自已的词库,但是这样做有以下缺点: (1)每次添加完,都要重启es才能生效,非常麻烦 (2)es是分布式的,可能有数百个节点,你不能每次都一个一个节点上面去修改 这一小节来学习让es不停机,直接在外部mysql中添加新的词语... 阅读全文
posted @ 2018-03-09 20:12 outback123 阅读(1050) 评论(0) 推荐(0) 编辑
摘要: 主要知识点: bucket与metric核心慨念 一、核心慨念 1、bucket:一个数据分组 比如有下面几条数据: city name 北京 小李 北京 小王 上海 小张 上海 小丽 上海 小陈 基于city划分buckets(基于city进行分组) 划分出来两个bucket,一个是北京bucket,一个是上海bucket... 阅读全文
posted @ 2018-03-09 20:12 outback123 阅读(344) 评论(0) 推荐(0) 编辑
摘要: 主要知识点: 知道IK默认的配置文件信息 自定义词库 一、ik配置文件 ik配置文件地址:es/plugins/ik/config目录 IKAnalyzer.cfg.xml:用来配置自定义词库 main.dic:ik原生内置的中文词库,总共有27万多条,只要是这些单词,都会被分在一起 quantifier.dic:放了一些单位相关的词 su... 阅读全文
posted @ 2018-03-09 20:11 outback123 阅读(2526) 评论(0) 推荐(0) 编辑
摘要: 主要知识点: 知道IK默认的配置文件信息 自定义词库 一、ik配置文件 ik配置文件地址:es/plugins/ik/config目录 IKAnalyzer.cfg.xml:用来配置自定义词库 main.dic:ik原生内置的中文词库,总共有27万多条,只要是这些单词,都会被分在一起 quantifier.dic:放了一些单位相关的词 su... 阅读全文
posted @ 2018-03-08 22:02 outback123 阅读(691) 评论(0) 推荐(0) 编辑
摘要: 在之前我们学的都是英文,用的也是英文的standard分词器。从这一节开始,学习中文分词器。中国人基本上都是中文应用,很少是英文的,而standard分词器是没有办法对中文进行合理分词的,只是将每个中文字符一个一个的切割开来,比如说中国人 --> 中 国 人 在中方搜索引擎领域,比较成熟和流行的,就是ik分词器。 一、在elasticsearch中安装ik中文分词器 ... 阅读全文
posted @ 2018-03-08 22:01 outback123 阅读(1286) 评论(0) 推荐(0) 编辑
摘要: 搜索的时候,可能输入的搜索文本会出现误拼写的情况,这时就需要es为我们进行智能纠错 比如有两个文档: doc1: hello world doc2: hello java 现在要搜索:hallo world,我们本来是想搜索hello word,但是我们拼写错了,写成hallo word,所以要用到fuzzy搜索技术 :自动将拼写错误的搜索文本,进行纠正,纠正以后去尝试匹配索引中的... 阅读全文
posted @ 2018-03-08 21:04 outback123 阅读(295) 评论(0) 推荐(0) 编辑
上一页 1 2 3 4 5 6 7 8 9 ··· 18 下一页