elasticsearch入门
1.elasticsearch相关介绍
(1)Near Realtime(NRT):近实时,两个意思,从写入数据到数据可以被搜索到有一个小延迟(大概1秒);基于es执行搜索和分析可以达到秒级
(2)Index:索引库,包含一堆有相似结构的文档数据,比如可以有一个客户索引,商品分类索引,订单索引,索引有一个名称。一个index包含很多document,一个index就代表了一类类似的或者相同的document。比如说建立一个product index,商品索引,里面可能就存放了所有的商品数据,所有的商品document。
(3)Type:类型,每个索引里都可以有一个或多个type,type是index中的一个逻辑数据分类,一个type下的document,都有相同的field,比如博客系统,有一个索引,可以定义用户数据type,博客数据type,评论数据type。
(4)Document&field:文档,es中的最小数据单元,一个document可以是一条客户数据,一条商品分类数据,一条订单数据,通常用JSON数据结构表示,每个index下的type中,都可以去存储多个document。一个document里面有多个field,每个field就是一个数据字段。
(5)Cluster:集群,包含多个节点,每个节点属于哪个集群是通过一个配置(集群名称,默认是elasticsearch)来决定的,对于中小型应用来说,刚开始一个集群就一个节点很正常
(6)Node:节点,集群中的一个节点,节点也有一个名称(默认是随机分配的),节点名称很重要(在执行运维管理操作的时候),默认节点会去加入一个名称为“elasticsearch”的集群,如果直接启动一堆节点,那么它们会自动组成一个elasticsearch集群,当然一个节点也可以组成一个elasticsearch集群
(7)shard(ʃɑːrd,分片):单台机器无法存储大量数据,es可以将一个索引中的数据切分为多个shard,分布在多台服务器上存储。有了shard就可以横向扩展,存储更多数据,让搜索和分析等操作分布到多台服务器上去执行,提升吞吐量和性能。每个shard都是一个lucene index。
(8)replica(ˈreplɪkə,复制品):任何一个服务器随时可能故障或宕机,此时shard可能就会丢失,因此可以为每个shard创建多个replica副本。replica可以在shard故障时提供备用服务,保证数据不丢失,多个replica还可以提升搜索操作的吞吐量和性能。primary shard(建立索引时一次设置,不能修改,默认5个),replica shard(随时修改数量,默认1个),默认每个索引10个shard,5个primary shard,5个replica shard,最小的高可用配置,是2台服务器。
2.elasticsearch安装
(1) 安装
解压即可
可以修改内存配置
(2) 启动
bin/elasticsearch.bat
(3)测试 -web端口
查询状态
3 集群健康状态
针对一个索引,Elasticsearch 中其实有专门的衡量索引健康状况的标志,分为三个等级:
green,绿色。这代表所有的主分片和副本分片都已分配。你的集群是 100% 可用的。
yellow,黄色。所有的主分片已经分片了,但至少还有一个副本是缺失的。不会有数据丢失,所以搜索结果依然是完整的。不过,你的高可用性在某种程度上被弱化。如果更多的分片消失,你就会丢数据了。所以可把 yellow 想象成一个需要及时调查的警告。
red,红色。至少一个主分片以及它的全部副本都在缺失中。这意味着你在缺少数据:搜索只能返回部分数据,而分配到这个分片上的写入请求会返回一个异常。如果你只有一台主机的话,其实索引的健康状况也是 yellow,因为一台主机,集群没有其他的主机可以防止副本,所以说,这就是一个不健康的状态,因此集群也是十分有必要的
4.安装kibana客户端
1)下载
2)安装
解压即可
3)配置
配置服务器地址,编辑config/kibana.yml,设置elasticsearch.url的值为已启动的ES
2) 启动
2) 测试
(3)crud
GET _search { "query": { "match_all": {} } } #新增一条数据到索引库crm中 GET crm/employee/1 { "name":"xxxx", "age":17 } GET _search #修改数据 POST crm/employee/1 { "name":"jjjjj", "age":20 } #删除数据 DELETE crm/employee/1 #不输入id,会自动生成id GET crm/employee { "name":"小飞", "age":12 } #使用生成的id查询,不输入id他会在添加一个 POST crm/employee { "name":"小飞机", "age":22 } #输入id进行修改 POST crm/employee/AW8i5TyiNXVYGBRIX5-H { "name":"小飞机", "age":22 } #获取漂亮格式,自带了的就没有了 GET crm/employee/AW8i5TyiNXVYGBRIX5-H?pretty #获取指定的列 GET crm/employee/AW8i5TyiNXVYGBRIX5-H?_source=name #局部更新,只更新名字 GET crm/employee/AW8i5TyiNXVYGBRIX5-H/_update { "doc":{ "name":"大飞机" } } #批量操作 POST _bulk { "delete": { "_index": "itsource", "_type": "employee", "_id": "123" }} { "create": { "_index": "itsource", "_type": "blog", "_id": "123" }} { "title": "我发布的博客" } { "index": { "_index": "itsource", "_type": "blog" }} { "title": "我的第二博客" } GET itsource/blog/_mget { "ids" : [ "123", "AW8iQAxERN4d1HhhqMML" ] } #准备分页查询数据 GET crm/students/1 { "name":"龙" } GET crm/students/2 { "name":"凤" } GET crm/students/3 { "name":"呈" } GET crm/students/4 { "name":"祥" } GET crm/students/5 { "name":"天" } GET crm/students/6 { "name":"下" } GET crm/students/7 { "name":"大" } GET crm/students/8 { "name":"吉" } #分页查询 GET crm/students/_search?size=3 GET crm/students/_search?from=2&size=2 #dsl查询 GET crm/students/_search { "query": { "match_all": {} }, "from": 0, "size": 3, "_source": ["name", "age"], "sort": [{"age": "asc"}] } #dsl过滤查询
5. head工具入门+postman
进入head页面 进行安装
1)安装
下载
npm install --时间有点久
npm run start
2) 配置
跨域访问
修改 elasticsearch/config/elasticsearch.yml
http.cors.enabled: true
http.cors.allow-origin: "*"
3) 使用