Elasticsearch 常用API
1. Elasticsearch 常用API
1.1.数据输入与输出
1.1.1.Elasticsearch 文档
#
在
Elasticsearch
中,术语
文档
有着特定的含义。它是指最顶层或者根对象
,
这个根对象被序列化成
JSON
并存储到
Elasticsearch
中,指定了唯一
ID
。
1.1.2.文档元数据
#
一个文档不仅仅包含它的数据
,也包含
元数据
——
有关
文档的信息。
三个必须的元数据元素如下:
_index
:文档在哪存放
_type
:文档表示的对象类别
_id
:文档唯一标识
1.1.3.索引文档
#
自定义
ID
索引,使用
Kibana
中的
Devtools
工具,进行创建
#
模板:
1 PUT /{index}/{type}/{id} 2 { 3 "field": "value", 4 ... 5 }
#
例如:
1 PUT /website/blog/123 2 { 3 "title": "My first blog entry", 4 "text": "Just trying this out...", 5 "date": "2014/01/01" 6 }
#
结果如下:
1.1.4.取回文档
#
使用
Kibana
中的
Devtools
工具,进行取回
#
为了从
Elasticsearch
中检索出文档
,我们仍然使用相同的
_index , _type ,
和
_id
,但是
HTTP
谓词
更改为
GET :
GET /website/blog/123?pretty
#
响应体包括目前已经熟悉了的元数据元素,再加上
_source
字段,这个字段包含我们索引数据时发送给
Elasticsearch
的原始
JSON
文档:
3.1.5.检查文档是否存在
#
如果只想检查一个文档是否存在
--
根本不想关心内容
--
那么用
HEAD
方法来代替
GET
方法。
HEAD
请求没有返回体,只返回一个
HTTP
请求报头:
curl -i -XHEAD http://localhost:9200/website/blog/123
#
如果文档存在,
Elasticsearch
将返回一个
200 ok
的状态码:
#
若文档不存在,
Elasticsearch
将返回一个
404 Not Found
的状态码:
curl -i -XHEAD http://localhost:9200/website/blog/124
1.1.6.更新整个文档
#
在
Elasticsearch
中文档是
不可改变
的,不能修改它们。
相反,如果想要更新现有的文档,需要
重建索引
或者进行替换,
我们可以使用相同的
index API
进行实现,在
索引文档
中已经进行了讨论。
#
更新语句
PUT /website/blog/123 { "title": "My first blog entry", "text": "I am starting to get the hang of this...", "date": "2014/01/02" }
#
在响应体中,我们能看到
Elasticsearch
已经增加了
_version
字段值:
# created
标志设置成
false
,是因为相同的索引、类型和
ID
的文档已经存在。
1.1.7.创建新文档
#1.
当我们索引一个文档,
怎么确认我们正在创建一个完全新的文档,而不是覆盖现有的呢?
#
请记住,
_index
、
_type
和
_id
的组合可以唯一标识一个文档。所以,确保创建一个新文档的最简单办法是,使用索引请求的
POST
形式让
Elasticsearch
自动生成唯一
_id :
2.
然而,如果已经有自己的
_id
,那么我们必须告诉
Elasticsearch
,只有在相同的
_index
、
_type
和
_id
不存在时才接受我们的索引请求。这里有两种方式,他们做的实际是相同的事情。使用哪种,取决于哪种使用起来更方便。
第一种方法使用
op_type
查询
-
字符串参数:
第二种方法是在
URL
末端使用
/_create :
3.
如果创建新文档的请求成功执行,
Elasticsearch
会返回元数据和一个
201 Created
的
HTTP
响应码。
另一方面,如果具有相同的
_index
、
_type
和
_id
的文档已经存在,
Elasticsearch
将会返回
409 Conflict
响应码,以及如下的错误信息:
1.1.8.删除文档
#
删除文档
的语法和我们所知道的规则相同,只是
使用
DELETE
方法:
DELETE /website/blog/123
#
如果找到该文档,
Elasticsearch
将要返回一个
200 ok
的
HTTP
响应码,和一个类似以下结构的响应体。注意,字段
_version
值已经增加
:
#
如果文档没有
找到,我们将得到
404 Not Found
的响应码和类似这样的响应体:
1.1.9.处理冲突(乐观并发控制)
#Elasticsearch
利用
_version
号来确保应用中相互冲突的变更不会导致数据丢失。我们通过指定想要修改文档的
version
号来达到这个目的。
如果该版本不是当前版本号,我们的请求将会失败。
#
例如创建一个博客文章
1 PUT /website/blog/1/_create 2 { 3 "title": "My first blog entry", 4 "text": "Just trying this out..." 5 }
#
响应体告诉我们,这个新创建的文档
_version
版本号是
1
。现在假设我们想编辑这个文档:我们加载其数据到
web
表单中,
做一些修改,然后保存新的版本。
GET /website/blog/1
#
现在,当我们尝试通过重建文档的索引来保存修改,我们指定
version
为我们的修改会被应用的版本:
1 PUT /website/blog/1?version=1 2 { 3 "title": "My first blog entry", 4 "text": "Starting to get the hang of this..." 5 }
#
我们想这个在我们索引中的文档只有现在的
_version
为
1
时,本次更新才能成功
#
此请求成功,并且响应体告诉我们
_version
已经递增到
2
:
#
然而,如果我们重新运行相同的索引请求,仍然指定
version=1
,
Elasticsearch
返回
409 Conflict HTTP
响应码,和一个如下所示的响应体:
1.1.10.文档部分更新
#get
文档
GET /website/blog/1
#update
请求最简单的一种形式是接收文档的一部分作为
doc
的参数,
它只是与现有的文档进行合并。对象被合并到一起,覆盖现有的字段,增加新的字段。
例如,我们增加字段
tags
和
views
到我们的博客文章,如下所示
1 POST /website/blog/1/_update 2 { 3 "doc" : { 4 "tags" : [ "testing" ], 5 "views": 0 6 } 7 }
#
再次
get
文档
GET /website/blog/1
1.1.11.取回多个文档
#Elasticsearch
的速度已经很快了,但甚至能更快。
将多个请求合并成一个,避免单独处理每个请求花费的网络时延和开销。
如果你需要从
Elasticsearch
检索很多文档,那么使用
multi-get
或者
mget API
来将这些检索请求放在一个请求中,将比逐个文档请求更快地检索到全部文档。
#mget API
要求有一个
docs
数组作为参数,每个
元素包含需要检索文档的元数据,
包括
_index
、
_type
和
_id
。如果你想检索一个或者多个特定的字段,那么你可以通过
_source
参数来指定这些字段的名字
1 GET /_mget 2 { 3 "docs" : [ 4 { 5 "_index" : "website", 6 "_type" : "blog", 7 "_id" : 2 8 }, 9 { 10 "_index" : "website", 11 "_type" : "pageviews", 12 "_id" : 1, 13 "_source": "views" 14 } 15 ] 16 }
#
如果想检索的数据都在相同的
_index
中(甚至相同的
_type
中),则可以在
URL
中指定默认的
/_index
或者默认的
/_index/_type
。
#
你仍然可以通过单独请求覆盖这些值:
1.1.12.批量操作(代价较小)
#
与
mget
可以使我们一次取回多个文档同样的方式,
bulk API
允许在单个步骤中进行多次
create
、
index
、
update
或
delete
请求。
如果你需要索引一个数据流比如日志事件,它可以排队和索引数百或数千批次。
#bulk
与其他的请求体格式稍有不同,如下所示:
1 { action: { metadata }}\n 2 { request body }\n 3 { action: { metadata }}\n 4 { request body }\n 5 ...
#
例如,一个
delete
请求看起来是这样的:
{ "delete": { "_index": "website", "_type": "blog", "_id": "123" }}
#request body
行由文档的
_source
本身组成
--
文档包含的字段和值。它是
index
和
create
操作所必需的,这是有道理的:你必须提供文档以索引。
它也是
update
操作所必需的,并且应该包含你传递给
update API
的相同请求体:
doc
、
upsert
、
script
等等。
删除操作不需要
request body
行。
{ "create": { "_index": "website", "_type": "blog", "_id": "123" }} { "title": "My first blog post" }
#
如果不指定
_id
,将会自动生成一个
ID
:
{ "index": { "_index": "website", "_type": "blog" }} { "title": "My second blog post" }
#
为了把所有的操作组合在一起,一个完整的
bulk
请求
有以下形式
:
1 POST /_bulk 2 { "delete": { "_index": "website", "_type": "blog", "_id": "123" }} 3 { "create": { "_index": "website", "_type": "blog", "_id": "123" }} 4 { "title": "My first blog post" } 5 { "index": { "_index": "website", "_type": "blog" }} 6 { "title": "My second blog post" } 7 { "update": { "_index": "website", "_type": "blog", "_id": "123", "_retry_on_conflict" : 3} } 8 { "doc" : {"title" : "My updated blog post"} } 9
(1)
请注意
delete
动作不能有请求体
,
它后面跟着的是另外一个操作。
(2)
谨记最后一个换行符不要落下。
#
注:整个批量请求都需要由接收到请求的节点加载到内存中,因此该请求越大,其他请求所能获得的内存就越少。
批量请求的大小有一个最佳值,大于这个值,性能将不再提升,甚至会下降。
但是最佳值不是一个固定的值。它完全取决于硬件、文档的大小和复杂度、索引和搜索的负载的整体情况。
通过批量索引典型文档,并不断增加批量大小进行尝试。
当性能开始下降,那么你的批量大小就太大了。一个好的办法是开始时将
1,000
到
5,000
个文档作为一个批次
,
如果你的文档非常大,那么就减少批量的文档个数。
密切关注你的批量请求的物理大小往往非常有用,一千个
1KB
的文档是完全不同于一千个
1MB
文档所占的物理大小。
一个好的批量大小在开始处理后所占用的物理大小约为
5-15 MB
。
1.2.请求体查询
1.2.1.空查询
#1.
让我们以
最简单的
search API
的形式开启我们的旅程,空查询将返回所有索引库(
indices)
中的所有文档:
1 GET /_search 2 {}
#2.
只用一个查询字符串,你就可以在一个、多个或者
_all
索引库(
indices
)和一个、多个或者所有
types
中查询:
1 GET /index_2014*/type1,type2/_search 2 {}
#3.
分页搜索
1 GET /_search 2 { 3 "from": 1, 4 "size": 10 5 }
1.2.2.表达式查询
#1.
要使用这种查询表达式,只需将查询语句传递给
query
参数:
1 GET /_search 2 { 3 "query": YOUR_QUERY_HERE 4 }
#2.
空查询(
empty search
)
—{}—
在功能上等价于使用
match_all
查询,
正如其名字一样,匹配所有文档:
1 GET /_search 2 { 3 "query": { 4 "match_all": {} 5 } 6 }
#3.
查询语句结构
#
一个查询语句
的典型结构:
1 { 2 QUERY_NAME: { 3 ARGUMENT: VALUE, 4 ARGUMENT: VALUE,... 5 } 6 }
#4.
如果是针对某个字段,那么它的结构如下:
1 { 2 QUERY_NAME: { 3 FIELD_NAME: { 4 ARGUMENT: VALUE, 5 ARGUMENT: VALUE,... 6 } 7 } 8 }
#
举个例子,你可以使用
match
查询语句
来查询
tweet
字段中包含
elasticsearch
的
tweet
:
1 { 2 "match": { 3 "tweet": "elasticsearch" 4 } 5 }
#
完整的查询请求如下:
1 GET /_search 2 { 3 "query": { 4 "match": { 5 "tweet": "elasticsearch" 6 } 7 } 8 }
#5.
合并查询语句
#
查询语句
(Query clauses)
就像一些简单的组合块
,这些组合块可以彼此之间合并组成更复杂的查询。这些语句可以是如下形式:
(
1
)叶子语句(
Leaf clauses
)
(
就像
match
语句
)
被用于将查询字符串和一个字段(或者多个字段)对比。
(
2
)复合
(Compound)
语句
主要用于
合并其它查询语句。
比如,一个
bool
语句
允许在你需要的时候组合其它语句,无论是
must
匹配、
must_not
匹配还是
should
匹配,同时它可以包含不评分的过滤器(
filters
):
1 { 2 "bool": { 3 "must": { "match": { "tweet": "elasticsearch" }}, 4 "must_not": { "match": { "name": "mary" }}, 5 "should": { "match": { "tweet": "full text" }}, 6 "filter": { "range": { "age" : { "gt" : 30, "lt":50}} } 7 } 8 }
#
例如,以下查询是为了找出信件正文包含
business opportunity
的星标邮件,或者在收件箱正文包含
business opportunity
的非垃圾邮件:
1 { 2 "bool": { 3 "must": { "match": { "email": "business opportunity" }}, 4 "should": [ 5 { "match": { "starred": true }}, 6 { "bool": { 7 "must": { "match": { "folder": "inbox" }}, 8 "must_not": { "match": { "spam": true }} 9 }} 10 ], 11 "minimum_should_match": 1 12 } 13 }
1.2.3.最重要的查询
#1.match_all
查询,简单的
匹配所有文档。在没有指定查询方式时,它是默认的查询
1 { "match_all": {}}
#
它经常与
filter
结合使用
--
例如,检索收件箱里的所有邮件。所有邮件被认为具有相同的相关性,所以都将获得分值为
1
的中性
`_score`
。
#2.match
查询,
#
无论你在任何字段上进行的是全文搜索还是精确查询,
match
查询是你可用的标准查询。
#
如果你在一个全文字段上使用
match
查询,在执行查询前,它将用正确的分析器去分析查询字符串:
{ "match": { "tweet": "About Search" }}
#
如果在一个精确值的字段上使用它,
例如数字、日期、布尔或者一个
not_analyzed
字符串字段,那么它将会精确匹配给定的值:
1 { "match": { "age": 26 }} 2 { "match": { "date": "2014-09-01" }} 3 { "match": { "public": true }} 4 { "match": { "tag": "full_text" }}
#3.multi_match
查询
#multi_match
查询可以在多个字段上执行相同的
match
查询:
1 { 2 "multi_match": { 3 "query": "full text search", 4 "fields": [ "title", "body" ] 5 } 6 }
#4.range
查询
#range
查询找出那些落在指定区间内的数字或者时间:
1 { 2 "range": { 3 "age": { 4 "gte": 20, 5 "lt": 30 6 } 7 } 8 }
#5.terms
查询
#terms
查询和
term
查询一样,但它允许你指定多值进行匹配。如果这个字段包含了指定值中的任何一个值,那么这个文档满足条件:
{ "terms": { "tag": [ "search", "full_text", "nosql" ] }}
#
和
term
查询一样,
terms
查询对于输入的文本不分析。它查询那些精确匹配的值(包括在大小写、重音、空格等方面的差异)。
#6.exists
查询和
missing
查询
exists
查询和
missing
查询被用于查找那些指定字段中有值
(exists)
或无值
(missing)
的文档。这与
SQL
中的
IS_NULL (missing)
和
NOT IS_NULL (exists)
在本质上具有共性:
1 { 2 "exists": { 3 "field": "title" 4 } 5 }
#
这些查询经常用于某个字段有值的情况和某个字段缺值的情况。
1.2.4.组合多查询
#1.
现实的查询需求从来都没有那么简单;它们需要在多个字段上查询多种多样的文本,并且根据一系列的标准来过滤。为了构建类似的高级查询,你需要一种能够将多查询组合成单一查询的查询方法。
你可以用
bool
查询来实现你的需求。这种查询将多查询组合在一起,成为用户自己想要的布尔查询。它接收以下参数:
must
文档
必须
匹配这些条件才能被包含进来。
must_not
文档
必须不
匹配这些条件才能被包含进来。
should
如果满足这些语句中的任意语句,将增加
_score
,否则,无任何影响。它们主要用于修正每个文档的相关性得分。
filter
必须
匹配,但它以不评分、过滤模式来进行。这些语句对评分没有贡献,只是根据过滤标准来排除或包含文档。
由于这是我们看到的第一个包含多个查询的查询,所以有必要讨论一下相关性得分是如何组合的。每一个子查询都独自地计算文档的相关性得分。一旦他们的得分被计算出来,
bool
查询就将这些得分进行合并并且返回一个代表整个布尔操作的得分。
下面的查询用于查找
title
字段匹配
how to make millions
并且不被标识为
spam
的文档。那些被标识为
starred
或在
2014
之后的文档,将比另外那些文档拥有更高的排名。如果
_
两者
_
都满足,那么它排名将更高:
1 { 2 "bool": { 3 "must": { "match": { "title": "how to make millions" }}, 4 "must_not": { "match": { "tag": "spam" }}, 5 "should": [ 6 { "match": { "tag": "starred" }}, 7 { "range": { "date": { "gte": "2014-01-01" }}} 8 ] 9 } 10 }
注:如果没有
must
语句,那么至少需要能够匹配其中的一条
should
语句。但,如果存在至少一条
must
语句,则对
should
语句的匹配没有要求。
# 2.
增加带过滤器(
filtering
)的查询
#
如果我们不想因为文档的时间而影响得分,可以用
filter
语句来重写前面的例子:
1 { 2 "bool": { 3 "must": { "match": { "title": "how to make millions" }}, 4 "must_not": { "match": { "tag": "spam" }}, 5 "should": [ 6 { "match": { "tag": "starred" }}, 7 { "range": { "date": { "gte": "2014-01-01" }}} 8 ] 9 } 10 }
#3.range
查询已经从
should
语句中移到
filter
语句
#
通过将
range
查询移到
filter
语句中,我们将它转成不评分的查询,将不再影响文档的相关性排名。由于它现在是一个不评分的查询,可以使用各种对
filter
查询有效的优化手段来提升性能。
#
所有查询都可以借鉴这种方式。将查询移到
bool
查询的
filter
语句中,这样它就自动的转成一个不评分的
filter
了。
#
如果你需要通过多个不同的标准来过滤你的文档,
bool
查询本身也可以被用做不评分的查询。简单地将它放置到
filter
语句中并在内部构建布尔逻辑:
1 { 2 "bool": { 3 "must": { "match": { "title": "how to make millions" }}, 4 "must_not": { "match": { "tag": "spam" }}, 5 "should": [ 6 { "match": { "tag": "starred" }}, 7 { "range": { "date": { "gte": "2014-01-01" }}} 8 ] 9 } 10 }
#4.onstant_score
查询
#
尽管没有
bool
查询使用这么频繁,
constant_score
查询也是你工具箱里有用的查询工具。它将一个不变的常量评分应用于所有匹配的文档。它被经常用于你只需要执行一个
filter
而没有其它查询(例如,评分查询)的情况下。
#
可以使用它来取代只有
filter
语句的
bool
查询。在性能上是完全相同的,但对于提高查询简洁性和清晰度有很大帮助。
1 { 2 "constant_score": { 3 "filter": { 4 "term": { "category": "ebooks" } 5 } 6 } 7 }
#term
查询被放置在
constant_score
中,转成不评分的
filter
。这种方式可以用来取代只有
filter
语句的
bool
查询。
#1.
查询可以变得非常的复杂,尤其
和不同的分析器与不同的字段映射结合时,理解起来就有点困难了。不过
validate-query API
可以用来验证查询是否合法。
1.2.5.验证查询
#1.
1 GET /gb/tweet/_validate/query 2 { 3 "query": { 4 "tweet" : { 5 "match" : "really powerful" 6 } 7 } 8 }
#
以上
validate
请求的应答告诉我们这个查询是不合法的:
1 { 2 "valid" : false, 3 "_shards" : { 4 "total" : 1, 5 "successful" : 1, 6 "failed" : 0 7 } 8 }
#2.
理解错误信息
#
为了找出
查询不合法的原因,可以将
explain
参数
加到查询字符串中:
1 GET /gb/tweet/_validate/query?explain 2 { 3 "query": { 4 "tweet" : { 5 "match" : "really powerful" 6 } 7 } 8 }
#explain
参数可以提供更多关于查询不合法的信息。
很明显,我们将查询类型
(match)
与字段名称
(tweet)
搞混了:
1 { 2 "valid" : false, 3 "_shards" : { ... }, 4 "explanations" : [ { 5 "index" : "gb", 6 "valid" : false, 7 "error" : "org.elasticsearch.index.query.QueryParsingException: 8 [gb] No query registered for [tweet]" 9 } ] 10 }
#3.
理解查询语句
#
对于合法查询,使用
explain
参数将返回可读的描述,这对准确理解
Elasticsearch
是如何解析你的
query
是非常有用的:
1 GET /_validate/query?explain 2 { 3 "query": { 4 "match" : { 5 "tweet" : "really powerful" 6 } 7 } 8 }
#
我们查询的每一个
index
都会返回对应的
explanation
,因为每一个
index
都有自己的映射和分析器:
1 { 2 "valid" : true, 3 "_shards" : { ... }, 4 "explanations" : [ { 5 "index" : "us", 6 "valid" : true, 7 "explanation" : "tweet:really tweet:powerful" 8 }, { 9 "index" : "gb", 10 "valid" : true, 11 "explanation" : "tweet:realli tweet:power" 12 } ] 13 }
#
从
explanation
中可以看出,匹配
really powerful
的
match
查询被重写为两个针对
tweet
字段的
single-term
查询,一个
single-term
查询对应查询字符串分出来的一个
term
。
#
当然,对于索引
us
,这两个
term
分别是
really
和
powerful
,而对于索引
gb
,
term
则分别是
realli
和
power
。之所以出现这个情况,是由于我们将索引
gb
中
tweet
字段的分析器修改为
english
分析器。