mapping
==
Mapping是指定义如何将document映射到搜索引擎的过程,比如一个字段是否可以查询以及如何分词等,一个索引可以存储含有不同"mapping types"的documents,ES允许每个mapping type关联多个mapping定义。
显式声明的mapping是定义在index/type级别, 默认不需要显式的定义mapping, 当新的type或者field引入时,ES会自动创建并且注册有合理的默认值的mapping(毫无性能压力), 只有要覆盖默认值时才必须要提供mapping定义。
mapping types
Mapping types是将索引里的documents按逻辑分组的方式, 类似数据中的表, 虽然不同的types之间有些区别, 但他们并不是完全分开的(说到底还是存在相同的Lucene索引里)。
强烈建议跨types的同名field有相同的类型定义以及相同的mapping特征(比如analysis的设置), 这在通过type前缀(`my_type.my_field`)来选择字段时非常有效, 但这也不一定, 有些地方就不起作用(比如字段的聚合faceting)。
实际上在实践中这个限制从来不是问题, field名通常表明了该field的类型(例如"first_name"总是一个字符串)。 还要注意, 这不适用于跨索引的情况。
mapping api
要创建mapping, 需要用到Put Mapping接口, 或者可以在调用create index接口时附带mapping的定义。
global settings
全局设置`index.mapping.ignore_malformed`可以在索引级别上设置是否忽略异常内容(异常内容的一个例子是尝试将字符串类型的值作为数字类型索引), 这个设置是跨mapping types的全局设置。
fields
===
每一个ampping都有一些关联的字段来控制如何索引的document的元数据(例如_all)。
_uid
===
每个索引的document会关联一个id和一个type, 内部的`_uid`字段将type和id组合起来作为document的唯一标示(这意味着不同的type可以有相同的id, 组合起来仍然是唯一的)。
在执行基于type的过滤时, 如果`_type`字段没有被索引,会自动使用`_uid`字段, 并且不需要`_id`字段被索引。
```
附_uid的java源代码
public static final byte DELIMITER_BYTE = 0x23;
public static void createUidAsBytes(BytesRef type, BytesRef id, BytesRef spare) {
spare.copyBytes(type);
spare.append(DELIMITER_BYTES);
spare.append(id);
}
```
_id
===
每个索引的document会关联一个id和一个type, `_id`字段就是用来索引并且存储(可能)id的,默认是不索引(not indexed)并且不存储的(not stored)。
注意, 即使`_id`是不索引的, 相关的接口仍然起作用(他们会用`_uid`字段), 比如用`term`, `terms`或者`prefix`来根据ids过滤(包括用`ids`来查询/过滤)。
`_id`字段也可以启用索引或者存储, 配置如下:
```
{
"tweet" : {
"_id" : {"index": "not_analyzed", "store" : "yes"}
}
}
```
为了维护向后兼容性, 当升级到0.16时可以在节点级别设置`index.mapping._id.indexed`为true来确保id能被索引, 尽管不建议索引id。
可以设置`_id`的`path`属性来从源文档中提取id, 例如下面的mapping:
```
{
"tweet" : {
"_id" : {
"path" : "post_id"
}
}
}
```
如果提交下面的数据
```
{
"message" : "You know, for Search",
"post_id" : "1"
}
```
`1`会提取出来作为id。
因为要提取id来决定在哪一个shard执行索引,需要在索引时做额外的解析。
_type
===
每个索引的document会关联一个id和一个type, type在索引时会自动赋给`_type`字段, 默认`_type`字段是需要索引的(但不analyzed)并且不存储的, 这就意味着`_type`字段是可查询的。
`_type`字段也可以设置为stored, 例如:
```
{
"tweet" : {
"_type" : {"store" : "yes"}
}
}
```
`_type`字段也可以设置为不索引, 并且此时所有用到`_type`字段的接口仍然能用。
```
{
"tweet" : {
"_type" : {"index" : "no"}
}
}
```
_source
===
`_source`是一个自动生成的字段, 用来存储实际提交的JSON数据, 他是不索引的(不可搜索), 只是用来存储。 在执行"fetch"类的请求时, 比如get或者search, `_source`字段默认也会返回。
尽管`_source`非常有用, 但它确实会占用索引的存储空间, 所以也可以禁用。 比如:
```
{
"tweet" : {
"_source" : {"enabled" : false}
}
}
```
compression
从0.90开始, 所有存储的字段(包括`_source`)总是被压缩的。
0.90之前:
如果要将source字段存储在索引中的话,启用压缩(LZF)会显著减少索引的大小, 还可能提升性能(解压缩比从磁盘上加载一个比较大的source的性能要好)。 代码需要特别注意,只有需要的时候才执行解压缩, 例如直接将数据解压缩到REST的结果流。
要启用压缩的话, 需要将`compress`选项设置为true, 默认设置是false。 注意可以在已经存在的索引上修改,ES支持压缩和未压缩的数据混合存放。
另外,`compress_threshold`可以控制压缩source的时机,可以设置为表示字节大小的值(比如100b, 10kb)。 注意`compress`应该设置为true。
includes / excludes
可以用path属性来包含/排除source中要存储的字段,支持*通配符,例如:
```
{
"my_type" : {
"_source" : {
"includes" : ["path1.*", "path2.*"],
"excludes" : ["pat3.*"]
}
}
}
```
_all
===
`_all`字段的设计目的是用来包罗文档的一个或多个字段, 这对一些特定的查询非常有用, 比如我们要查询文档的内容, 但是不确定要具体查询哪一个字段, 这会占用额外的cpu和索引容量。
`_all`字段可以完全禁止掉, field mapping和object mapping可以声明这个字段是否放到`_all`中。 默认所有的字段都包含在`_all`中。
禁用`_all`字段时, 推荐为`index.query.default_field`设置一个值(例如, 你的数据有一个"message"字段来存储主要的内容, 就设置为`message`)。
`_all`字段一个很有用的特征是可以把字段的boost等级考虑进去, 假设title字段的boost等级比content字段高, `_all`中的title值也比`_all`中的content值等级高。
以下是一个配置的例子:
```
{
"person" : {
"_all" : {"enabled" : true},
"properties" : {
"name" : {
"type" : "object",
"dynamic" : false,
"properties" : {
"first" : {"type" : "string", "store" : "yes", "include_in_all" : false},
"last" : {"type" : "string", "index" : "not_analyzed"}
}
},
"address" : {
"type" : "object",
"include_in_all" : false,
"properties" : {
"first" : {
"properties" : {
"location" : {"type" : "string", "store" : "yes", "index_name" : "firstLocation"}
}
},
"last" : {
"properties" : {
"location" : {"type" : "string"}
}
}
}
},
"simple1" : {"type" : "long", "include_in_all" : true},
"simple2" : {"type" : "long", "include_in_all" : false}
}
}
}
```
在这个例子里, `_all`字段设置了`store`, `term_vector`和`analyzer`(指定`index_analyzer`和`search_analyzer`)。
highlighting
任何可以highlighting的字段必须既是stored的,又是`_source`的一部分,默认`_all`字段不符合这个条件, 所以它的highlighting不会返回任何数据。
尽管可以设置`_all`为stored, 但`_all`从根本上说是所有字段的集合, 也就是说会存储多余的数据,它做highlighting可能产生怪怪的结果。
_analyzer
===
`_analyzer` mapping可以将document某个字段的值作为索引时所用analyzer的名字,如果一个字段没有显式指定`analyzer`或者`index_analyzer`, 索引时就会用这个analyzer。
下面是配置的例子:
```
{
"type1" : {
"_analyzer" : {
"path" : "my_field"
}
}
}
```
上面的配置用`my_field`字段的值作为analyzer, 比如下面的文档:
```
{
"my_field" : "whitespace"
}
```
会让所有没有指定analyzer的字段用`whitespace`做索引的analyzer。
path的默认值是`_analyzer`, 所以可以给`_analyzer`字段赋值来指定一个analyzer, 如果需要自定义为别的json字段, 需要通过path属性来明确指定。
默认`_analyzer`字段是可索引的, 可以在mapping中将`index`设置为`no`来禁用。
_boost
===
Boosting是增强文档或者字段关联性的过程,字段级别的mapping可以将boost指定为某个字段。 `_boost`(应用在root object上)可以指定一个字段,这个字段的内容控制文档的boost级别。 例如下面的mapping:
```
{
"tweet" : {
"_boost" : {"name" : "my_boost", "null_value" : 1.0}
}
}
```
上面的定义指定了一个名为字段`my_boost`的字段, 如果要索引的JSON文档包括my_boost字段, 字段的值就作为文档的boost值, 比如下面的JSON文档的boost值为2.2:
```
{
"my_boost" : 2.2,
"message" : "This is a tweet!"
}
```
(注:name属性默认是`_boost`)
_parent
===
`_parent`用来定义子类型所关联的父类型, 比如有一个`blog`类型和一个`blog_tag`子类型, `blog_tag`的mapping应该是:
```
{
"blog_tag" : {
"_parent" : {
"type" : "blog"
}
}
}
```
`_parent`默认是stored以及indexed的, 也就是说可以用`_parent`来查询。
_routing
===
`routing`是索引数据或者需要明确指定路由时routing的设置。
store / index
`_routing`的mapping默认会存储routing的值(`store`设置为`yes`), 之所以这么做是为了可以在routing值来自外部而不是document一部分时仍然可以重建索引。
required
另一方面, 可以在`_routing`的mapping中设置`required`属性为`true`来将它设置为必需的,这在使用routing功能是非常重要, 因为很多接口会用到它。 如果没有提供routing值(或者不能从document获取)的话,索引操作就不会执行,再比如如果`_routing`是必须的但是没有提供routing值的话,删除操作就会广播到所有的分片(shards)上。
path
routing的值可以在索引时额外提供(并且作为document的一部分存储, 和`_source`字段存储方式很像), 也可以根据`path`自动从要索引的document提取, 例如下面的mapping:
```
{
"comment" : {
"_routing" : {
"required" : true,
"path" : "blog.post_id"
}
}
}
```
会使下面的document基于值`111222`来路由:
```
{
"text" : "the comment text"
"blog" : {
"post_id" : "111222"
}
}
```
注意, 使用`path`而不是明确提供routing值的话, 索引时需要额外的解析过程(尽管相当快)。
id uniqueness
如果自定义`_routing`的话, 不保证`_id`在所有分片(shards)的唯一性。 事实上, 如果document的`_id`相同而`_routing`值不同的话, 会被分配到不同分片上。
_index
===
`_index`存储一个document属于哪一个索引(index), 该字段默认是禁用的, 如果要启用的话, mapping的定义如下:
```
{
"tweet" : {
"_index" : { "enabled" : true }
}
}
```
_size
===
`_size`字段自动存储原始`_source`的大小, 默认是禁用的, 要启用的话mapping定义如下:
```
{
"tweet" : {
"_size" : {"enabled" : true}
}
}
```
如果还要存储的话, 定义如下:
```
{
"tweet" : {
"_size" : {"enabled" : true, "store" : "yes"}
}
}
```
_timestamp
===
`_timestamp`字段允许自动索引一个document的时间戳, 它可以在索引请求时提供, 也可以从`_source`提取,如果没有提供的话会自动设置为document被处理的时间。
enabled
`_timestamp`默认是禁用的, 如果要启用, mapping的定义如下所示:
```
{
"tweet" : {
"_timestamp" : { "enabled" : true }
}
}
```
store / index
默认`_timestamp`字段的`store`设置为`no`, `index`设置为`not_analyzed`, 它可以当做一个标准的日期字段来查询。
path
`_timestamp`的值可以在索引请求时额外提供, 也可以根据`path`自动从document中提取, 例如下面的mapping定义:
```
{
"tweet" : {
"_timestamp" : {
"enabled" : true,
"path" : "post_date"
}
}
}
```
提交的数据为
```
{
"message" : "You know, for Search",
"post_date" : "2009-11-15T14:12:12"
}
```
时间戳的值就是`2009-11-15T14:12:12`。
注意, 如果用`path`方式而没有明确提供时间戳的值的话, 索引时需要额外的解析操作(尽管相当快)。
format
你可以定义时间戳的格式, 例如:
```
{
"tweet" : {
"_timestamp" : {
"enabled" : true,
"path" : "post_date",
"format" : "YYYY-MM-dd"
}
}
}
```
注意, 默认的格式是`dateOptionalTime`, 时间戳的值首先作为数字解析, 如果解析失败的话会尝试用定义的格式解析。
_ttl
===
很多documents有过期时间, 可以设置`_ttl`(time to live)来自动删除过期的documents。
enabled
`_ttl`默认是禁用的, 要启用的话, mapping定义如下:
```
{
"tweet" : {
"_ttl" : { "enabled" : true }
}
}
```
store / index
默认`_ttl`字段的`store`设置为`yes`, `index`设置为`not_analyzed`, 注意`index`必须设置为`not_analyzed`。
default
可以为index/type设置默认的`_ttl`, 比如:
```
{
"tweet" : {
"_ttl" : { "enabled" : true, "default" : "1d" }
}
}
```
这种情况下, 如果你没有明确提供`_ttl`的值, `_source`里也没有`_ttl`的话, 所有的tweets的`_ttl`会被设置为一天。
如果你没有指定时间的单位,比如d (days), m (minutes), h (hours), ms (milliseconds), (weeks), 默认把毫秒(milliseconds)作为单位。
如果没有设置默认值, 也没有提供`_ttl`的值, document会有无限的`_ttl`,即永不过期。
可以用put mapping接口动态更新`default`的值, 这不会改变已有documents的`_ttl`, 只会影响新的documents。
note on documents expiration
过期的documents会自动定期删除, 可以根据你的需要来设置`indices.ttl.interval`, 默认是60s。
删除命令是批量处理的, 可以根据你的需要来设置`indices.ttl.bulk_size`, 默认是10000。
注意, 删除是根据版本来的, 如果document在收集过期的documents和执行删除操作的时间间隔之间被修改了, document是不会被删除的。