Elasticsearch、分词器、kibana的linux安装和使用

安装包提供 https://pan.baidu.com/s/1qeRSkws2e1RKoRAWg7zUXw  提取码 p8ne

由于es出于安全考虑,不可以用root用户操作es。

如果使用root用户操作和启动会报错,当然应该有相应的解决方案,但是出于安全考虑先创建用户,一下安装步骤是我已经安装完成的操作步骤,所以没有详细截图。

一、使用root创建一个新用户。

在创建密码时提示密码长度问题可以不予理会。

完成后一定要把文件上传到此用户的目录下才能进行操作,/home/root01/下。

如果没有其他需求则不用分配权限和用户组等等...

#1.新建用户
useradd root01

#2.设置密码 会提示输入密码一共两次
passwd root

#3.切换至root01用户
su - root01
#4.上传安装包 elasticsearch-6.8.0.tar.gz等等三个

如图

 二、安装es

以下操作切换至新用户 root01 操作

解压es,顺序必须是es --> 再可视化或分词器

解压
tar xvf elasticsearch-6.8.0.tar.gz 删除安装包(可选) rm -rf elasticsearch-6.8.0.tar.gz 重命名 mv elasticsearch-6.8.0 elasticsearch

 为了方便操作修改了文件名。

基础配置(可选)

#修改jvm内存大小
vim /home/es-33/elasticsearch/config/jvm.options


-Xms256m
-Xmx256m

#如果你的可分配内存有限

启动配置(必要)

#配置数据目录
path.data: ../data
#配置logs目录
path.logs: ../logs
#开启远程访问
network.host: 0.0.0.0

此处我写的两个目录都是相对路径,因为我将此目录创建在了此文件的上级目录中,根据需求写相对或者绝对都可以的。

去bin目录下启动

 执行

#前台启动 退出命令 ctrl c
./elasticsearh  
#后台启动 
./elasticsearh -d

可能会报错 需要切换至root用户操作解决

错误1:

[1]: max file descriptors [4096] for elasticsearch process is too low, increase to at least [65535]

解决:

vi /etc/security/limits.conf

#可打开的文件描述符的最大数(软限制)
* soft nofile 65536  

 #可打开的文件描述符的最大数(硬限制)
* hard nofile 131072

#单个用户可用的最大进程数量(软限制)
* soft nproc 4096

#单个用户可用的最大进程数量(硬限制)
* hard nproc 4096

错误2:

[2]: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
#打开sysctl.conf
vi /etc/sysctl.conf
#添加以下配置
vm.max_map_count=262144
#测试生效
sysctl -p

执行完以上操作以后基本可以使用了

继续测试启动...

 启动成功,默认端口为9200访问即可,我修改了端口为9902所以如图就访问成功了

 

三、安装可视化 kibana

切换至root01用户

#解压
tar kibana-6.8.0-linux-x86_64.tar.gz
#删除原压缩包(可选)
rm -rf kibana-6.8.0-linux-x86_64.tar.gz
#重命名 mv 原文件名 新文件名
mv kibana-6.8.0-linux-x86_64.tar.gz kibana

 修改配置文件

#修改配置文件
vim /home/es-33/kibana/config/kibana.yml 

server.host: "0.0.0.0"
i18n.locale: "zh-CN"

启动

#启动
#一定要先启动es再启动kibana
kibana/bin/ ./kibana #访问 http://ip:5601(默认端口)

四、安装分词词库 

#切换至es组件目录下
cd /home/root01/elasticsearch/plugins
#创建es读取分词的文件夹
mkdir analysis-ik
#切换文件夹
cd analysis-ik
#需要将分词库解压到此文件下
unzip elasticsearch-analysis-ik-6.8.0.zip

扩展自定义词库

安装完成分词库以后可以看到

 圈红的时是加载自定义词库文件的配置文件,dic后缀的文件为官方词库

一些生僻的或者人名分词需要创建自己的分词词库,例如我在这里创建的my.dic

 此时重启es和可视化可以看到重启es时加载到了自定义词库了

 最后测一下分词,关于分词解释 

#最粗粒度分词
POST _analyze
{
  "text": "我们是中国人",
  "analyzer": "ik_smart"
}

#最细粒度分词
POST _analyze
{
  "text": "我们是中国人",
  "analyzer": "ik_max_word"
}

 

posted @ 2020-10-20 11:36  一半人生  阅读(398)  评论(0编辑  收藏  举报