极客时间运维进阶训练营第五周作业

1、完全基于 Pipeline 实现完整的代码部署流水线

  


2、熟悉 ELK 各组件的功能、Elasticsearch 的节点角色类型

ELK主要组件
E-elasticsearch:数据存储及检索
L-logstash:日志收集、处理、发送给 elasticsearch
K-kibana:从ES读取数据进行可视化展示及数据管理
 
节点类型
data node:数据节点,数据的存储
master node: 主节点,index管理,分片的分配,node节点的添加三处,一个es集群只有一个活跃的master节点
client node/coordinationg-node: 客户端节点或协调节点,将数据读写请求发送到data node,它只作为集群的入口,不存储数据,也不参与master角色的选举
ingest节点:预处理节点,在检索数据前进行预处理,可以在管道对数据实现字段删除、文本提前等操作,所有节点默认都支持ingest节点
data_cold: 冷数据节点
data_swarm: 热数据节点
data_frozen:冻结数据节点
配置文件没有定义则可以做任何角色
 


3、熟悉索引、doc、分片与副本的概念

Index:一类相同的数据,在逻辑上通过一个index查询、修改
Document:文档,存储在ES的数据
shard:分片,对index的逻辑拆分存储,多个分片合起来就是index的所有数据
Replica:副本,一个分片的跨主机完整备份


4、掌握不同环境的 ELK 部署规划,基于 deb 或二进制部署 Elasticsearch 集群

 

 

 

 

 

 

 

 

 安装elasticsearch集群

node1

  

node2

  

node3

 

  


5、了解 Elasticsearch API 的简单使用,安装 head 插件管理 ES 的数据

5.1 api的简单使用

  

5.2 安装head插件

 

 

 

 

 

 

 

 

 

 

 

 


6、安装 Logstash 收集不同类型的系统日志并写入到 ES 的不同 index

6.1 安装logstash

1
2
3
4
5
6
7
#安装logstash
dpkg -i /usr/local/src/logstash-8.5.1-amd64.deb
 
cp /lib/systemd/system/logstash.service{,.bak}
sed -i 's/User=logstash/User=root/g' /lib/systemd/system/logstash.service
sed -i 's/Group=logstash/Group=root/g' /lib/systemd/system/logstash.service
systemctl daemon-reload

  

6.2 收集不同类型的日志并写入不同的es集群

  


7、安装 Kibana、查看 ES 集群的数据

7.1 安装kibana

  

7.2 查看es集群

 

 

 

 

 

 

posted @   john221100  阅读(33)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· Manus爆火,是硬核还是营销?
· 终于写完轮子一部分:tcp代理 了,记录一下
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 别再用vector<bool>了!Google高级工程师:这可能是STL最大的设计失误
· 单元测试从入门到精通
点击右上角即可分享
微信分享提示