elasticsearch 初步

本文主要内容:
1、elasticsearch的认识(是个啥,能干啥)
2、安装启动、简单集群及关键配置
3、名词解释
4、存取数据,中文分词
---------------------------------------------------------------------------------------------------
1、elasticsearch的认识
  elasticsearch是一个开源的实时分布式搜索分析引擎,底层使用lucene实现。lucene使用较为复杂,es将其做成一个单独的服务,方便开发人员使用。这么说不太方便理解,通俗的讲,可以把它理解成一个分布式的海量数据库,而且使用方便。
  比较详细的介绍可以参考官网的文档以及权威指南:
2、安装启动、简单集群及关键配置
  该部分就是一个安装过程,附带了配置说明
  a、单机版
  单节点的es比较简单,直接下载启动即可;
  下载:https://www.elastic.co/downloads在官网点击下载,找自己需要的版本下载即可;
  启动:解压后,bin目录,./elasticsearch 回车即可。
  注意:不可用root账号启动,因为es为了防止危险脚本的注入,禁止root启动;内存不要过小,默认内存配置是1G,如果当前内存小于1G,会报错,考虑加大内存或者修改es默认内存配置,es默认占用的jvm堆内存大小设置路径:config/jvm.options中的-Xms跟-Xmx。
  b、集群搭建
  一般是3点集群或者5点集群,理由当然是尽量防止脑裂问题。本地只有一台虚拟机,比较懒,就双机集群吧。
a
172.20.10.2
9200
物理机
b
172.20.10.3
9200
虚拟机
  使用的es版本为6.4.3,要修改的配置文件为conf/elasticsearch.yml,主要修改以下选项:
#集群名称
cluster.name: my-application
#节点名称
node.name: node-1
# 是否可以作为master节点,默认true
node.master: true
#本机地址
network.host: 172.20.10.2
#本机es端口
http.port: 9200
#单播模式下,具有master资格的节点列表,新加入的节点向这个列表中的节点发送请求来加入集群
discovery.zen.ping.unicast.hosts: ["172.20.10.2", "172.20.10.3"]
#一个节点需要看到的具有master资格的节点的最小数量
discovery.zen.minimum_master_nodes: 1
  以上,集群名称用于区分网络环境中的不同es集群。集群中,不是所有节点都会参与master选举,这样的话会因为节点太多而过于复杂,故一般es集群中只设置几个节点用于master,其它节点只作为数据节点,不参与主节点竞争;有master资格的节点需要尽量让其它节点看到自己;一个节点需要看到一定数量的具有master资格节点才能加入集群并在其中执行操作,官方推荐的数字是(N/2)+1,其中N为具有master资格的节点数量;
  当然,生产环境的话,一般数据跟程序是不在同一目录的,主要目的是方便es的版本升级,避免数据覆盖。因此我们把数据跟日志目录移动到别的目录:
#es的数据存储目录
path.data: /var/elasticsearch/data
#es日志存储目录
path.logs: /var/elasticsearch/logs
  相应的,es的配置文件在每次升级之后也会被覆盖,这不是我们想要的,故而也应该提取出来。比如本次是将config移动到了/opt/elasticsearch/目录下,同目录下有elasticsearch-6.4.3目录,也就是我们es的home目录。修改后,相应的启动有两种方式:
  a、参数启动
  在es的home目录/bin下执行 ES_PATH_CONF=/opt/elasticsearch/config ./elasticsearch
  b、设置环境变量
  在~/.bash_profile添加
ES_PATH_CONF=/opt/elasticsearch/config  
export ES_PATH_CONF
  两行,然后可以正常启动。
  分别启动,结束后执行:curl -X GET "http://172.20.10.2:9200/_cat/health?v",查看集群运行状态:
  node.total是所有节点数量,可以看到有两个节点。
  本次启动过程中碰到两个问题:
ERROR: [2] bootstrap checks failed
[1]: max file descriptors [4096] for elasticsearch process is too low, increase to at least [65536]
[2]: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
  第一个问题,是说当前es用户拥有的可创建文件描述的权限太低,解决办法:
  切换到root用户进行修改:
  vi /etc/security/limits.conf
  在最后添加:
*** hard nofile 65536
*** soft nofile 65536
  其中,***  是启动ES的用户
  第二个问题,是单个jvm能开启的最大线程数太小,
  切换root用户,执行:sysctl -w vm.max_map_count=655360进行修改即可。
3、名词解释
  虽然es已经启动起来了,可我们貌似对它并没有什么了解,那就从名词解释开始吧!
  近实时:es是一个近乎实时的搜索平台,所谓近实时就是说从索引文档到返回结果还是需要一点时间的,但不太长,通常是1秒。
  索引:(名词)es存储数据的地方,是具有某些类似特征的文档的集合。类似于关系数据库中的“数据库”或者“表”。
    (动词)将数据存到es的索引的过程,叫做索引。
  文档:文档是es中的一个json文件,相当于关系数据库中的一行记录。文档存储在索引中,有类型跟id。一个索引可以保存多种类型的文档,相当于一个student表中可以放teacher跟student,不太贴切,但暂且这么理解吧。es7中类型将被删除,相当于与student表只能存student数据了。
  类型:就是orm中的那个o的类型吧,es7中将被移除。
  分片:数据存储在索引中,索引的存储量可能会超过单个节点的硬件限制条件。比如1TB大小的索引,如果放在单节点,会因为太大而导致搜索太慢或者干脆硬盘没有这么大,而无法进行存储。为了解决这个问题,es提供了分片机制,在创建索引时指定分片数量,指定后不可更改。每个分片都是一个功能齐全且独立的“索引”。
  分片副本:顾名思义,就是分片的一个拷贝,在发生网络故障时可以保证损坏的节点数据正常使用。
4、存取数据,中文分词
  对es数据的操作可以通过es提供的rest api来完成,curl命令不方便使用,之前有chrome插件sense可以方便使用,但最新的chrome商店中删掉了该插件,网络上的改版也会被浏览器提示安全问题或者编码问题,我们此处使用kibana。
  kibana默认连接localhost,需要在es的配置文件中添加 network.host: [localhost, 172.20.10.2],否则会导致无法连接到es。启动后访问localhost:5601 --> Dev Tools 打开es 的rest api访问工具。
  a、增
  添加一条数据到megacorp索引的employee类型下,id是1:
  右边,_version表示该记录的版本号,3表示被修改过3次,我本地是增加后删除了一次,第二次新增,故而版本是3。
  批量增加:
  批量处理有一些格式上要注意的地方:
  1、操作命令跟内容交替出现,每个独占一行;
  即使文档内容有很多,都是json格式,必须在一行,否则会报错:"type": "illegal_argument_exception", "reason": "Malformed action/metadata line [3], expected START_OBJECT but found [VALUE_STRING]"
  2、更新操作要有doc或者script,否则报错:Validation Failed: 1: script or doc is missing
  3、操作有4种,index、create、update跟delete,index跟create的区别是如果存在,是否替换,index会替换,create不会。
  b、删
  单条删除比较简单,就是delete /索引名/类别/id ,比较常用的是通过查询api来删除
  删掉年龄为32的员工:
  c、改
  update在上文增操作中有涉及;
  通过脚本,将id为3的员工年龄加5
  d、查
  查询单个: get /索引/类型/id,条件查询的api比较复杂;
  中文分词
  es自带的默认分词器对中文的处理是拆成一个个汉字进行处理的,这显然不合理,比较好用的中文分词器是ik分词器https://github.com/medcl/elasticsearch-analysis-ik
  找到es对应版本,下载解压,然后在es/plugins下建ik文件夹,放到这里后重启es即可。该部分详细操作请参照https://www.cnblogs.com/zlslch/p/6440373.html
  本地安装完成后测试:
  可以看到,把王者跟荣耀分别作为了一个单词,虽不是我们期望的,但也还可以理解。通过分词器,我们还可以自定义词语,近义词等。
---------------------------------------------------------------------------------------------------
  大概就先这样吧,稍后分析es的内部数据存储逻辑以及分词器的一些常用操作。
 
 
 

posted @ 2019-01-02 15:44  facelessvoidwang  阅读(1151)  评论(0编辑  收藏  举报