k8s-etcd

etcd是CoreOS团队于2013年6月发起的开源项目,它的目标是构建一个高可用的分布式键值(key-value)数据库。
etcd内部采用raft协议作为一致性算法,etcd基于Go语言实现。


Etcd具有下面这些属性:
完全复制:集群中的每个节点都可以使用完整的存档
高可用性:Etcd可用于避免硬件的单点故障或网络问题
一致性:每次读取都会返回跨多主机的最新写入
简单:包括一个定义良好、面向用户的API(gRPC)
安全:实现了带有可选的客户端证书身份验证的自动化TLS
快速:每秒10000次写入的基准速度
可靠:使用Raft算法实现了存储的合理分布Etcd的工作原理



启动脚本说明
cat /etc/systemd/system/etcd.service
[Unit]
Description=Etcd Server
After=network.target
After=network-online.target
Wants=network-online.target
Documentation=https://github.com/coreos
[Service]
Type=notify
WorkingDirectory=/var/lib/etcd/     #数据保存目录
ExecStart=/usr/bin/etcd \             #二进制文件路径
--name=etcd1 \                         #当前node 名称
--cert-file=/etc/etcd/ssl/etcd.pem \
--key-file=/etc/etcd/ssl/etcd-key.pem \
--peer-cert-file=/etc/etcd/ssl/etcd.pem \
--peer-key-file=/etc/etcd/ssl/etcd-key.pem \
--trusted-ca-file=/etc/kubernetes/ssl/ca.pem \
--peer-trusted-ca-file=/etc/kubernetes/ssl/ca.pem \
--initial-advertise-peer-urls=https://192.168.7.105:2380 \                 #通告自己的集群端口
--listen-peer-urls=https://192.168.7.105:2380 \                         #集群之间通讯端口
--listen-client-urls=https://192.168.7.105:2379,http://127.0.0.1:2379 \ #客户端访问地址
--advertise-client-urls=https://192.168.7.105:2379 \                     #通告自己的客户端端口
--initial-cluster-token=etcd-cluster-0 \                                 #创建集群使用的token,一个集群内的节点保持一致
--initial-cluster=etcd1=https://192.168.7.105:2380,etcd2=https://192.168.7.106:2380,etcd3=https://192.168.7.107:2380 \ #集群所有的节点信息
--initial-cluster-state=new \         #新建集群的时候的值为new,如果是已经存在的集群为existing。
--data-dir=/var/lib/etcd             #数据目录路径
Restart=on-failure
RestartSec=5
LimitNOFILE=65536
[Install]
WantedBy=multi-user.target


etcd有多个不同的API访问版本,v1版本已经废弃,etcd v2 和 v3 本质上是共享同一套 raft 协议代码的两个独立的应用,接口不一样,存储不一样,数据互相隔离。
也就是说如果从 Etcd v2 升级到 Etcd v3,原来v2 的数据还是只能用 v2 的接口访问,v3 的接口创建的数据也只能访问通过 v3 的接口访问。
[root@localhost7B ansible]# ETCDCTL_API=3 etcdctl  --help


验证当前etcd所有成员状态:
root@k8s-etcd1:~# export NODE_IPS="192.168.80.180 192.168.80.190 192.168.80.200"
root@k8s-etcd1:~# for ip in ${NODE_IPS}; do ETCDCTL_API=3  /usr/bin/etcdctl --endpoints=https://${ip}:2379 --cacert=/etc/kubernetes/ssl/ca.pem --cert=/etc/etcd/ssl/etcd.pem --key=/etc/etcd/ssl/etcd-key.pem endpoint health; done

查看etcd数据信息:
root@k8s-etcd1:~# ETCDCTL_API=3 etcdctl get / --prefix --keys-only #以路径的方式所有key信息
root@k8s-etcd1:~# ETCDCTL_API=3 etcdctl get / --prefix --keys-only #以路径的方式所有key信息
root@k8s-etcd1:~# ETCDCTL_API=3 etcdctl get --prefix /calico #查看etcd中calico的相关数据



etcd增删改查数据:

#添加数据
root@k8s-etcd2:~# ETCDCTL_API=3 /usr/bin/etcdctl put /testkey "test for linux36"
OK

#查询数据
root@k8s-etcd2:~# ETCDCTL_API=3 /usr/bin/etcdctl get /testkey
/testkey
test for linux36

#改动数据,#直接覆盖就是更新数据
root@k8s-etcd2:~# ETCDCTL_API=3 /usr/bin/etcdctl put /testkey "test for linux36-new" 
OK

#验证改动
root@k8s-etcd2:~# ETCDCTL_API=3 /usr/bin/etcdctl get /testkey
/testkey
test for linux36-new

#删除数据
root@k8s-etcd2:~# ETCDCTL_API=3 /usr/bin/etcdctl del /testkey
1
root@k8s-etcd2:~# ETCDCTL_API=3 /usr/bin/etcdctl get /testkey


etcd数据watch机制:
基于不断监看数据,发生变化就主动触发通知客户端,Etcd v3 的watch机制支持watch某个固定的key,也支持watch一个范围。
相比Etcd v2, Etcd v3的一些主要变化:
    接口通过grpc提供rpc接口,放弃了v2的http接口,优势是长连接效率提升明显,缺点是使用不如以前方便,尤其对不方便维护长连接的场景。
    废弃了原来的目录结构,变成了纯粹的kv,用户可以通过前缀匹配模式模拟目录。
    内存中不再保存value,同样的内存可以支持存储更多的key。
    watch机制更稳定,基本上可以通过watch机制实现数据的完全同步。
    提供了批量操作以及事务机制,用户可以通过批量事务请求来实现Etcd v2的CAS机制(批量事务支持if条件判断)。

watch测试:
#在etcd node1上watch一个key,没有此key也可以执行watch,后期可以再创建:
root@k8s-etcd2:~# ETCDCTL_API=3 /usr/bin/etcdctl watch /testkey
#在etcd node2修改数据,验证etcd node1是否能够发现数据变化
root@k8s-etcd1:~# ETCDCTL_API=3 /usr/bin/etcdctl put /testkey "test for linux36-new"
OK



etcd数据备份与恢复机制:
WAL是write ahead log的缩写,顾名思义,也就是在执行真正的写操作之前先写一个日志。
wal: 存放预写式日志,最大的作用是记录了整个数据变化的全部历程。在etcd中,所有数据的修改在提交前,都要先写入到WAL中



V2版本帮助信息:root@k8s-etcd2:~# /usr/bin/etcdctl backup --help
V2版本备份数据:
root@k8s-etcd2:~# ETCDCTL_API=2 etcdctl backup --data-dir /var/lib/etcd/ --backup-dir  /opt/etcd_backup
2019-07-11 18:59:57.674432 I | wal: segmented wal file
/opt/etcd_backup/member/wal/0000000000000001-0000000000017183.wal is created

V2版本恢复数据:
etcd --data-dir=/var/lib/etcd/default.etcd --force-new-cluster &


vim /etc/systemd/system/etcd.service
.....
--data-dir=/opt/etcd_backup -force-new-cluster #强制设置为为新集群





etcd v3版本数据备份与恢复:
root@k8s-etcd2:~# ETCDCTL_API=3 etcdctl snapshot save snapshot.db
V3版本恢复数据:
root@k8s-etcd2:~# ETCDCTL_API=3 etcdctl snapshot restore snapshot.db --data-dir=/opt/etcd-testdir #将数据恢复到一个新的不存在的目录中



#自动备份数据
root@k8s-etcd2:~# mkdir /data/etcd-backup-dir/ -p
root@k8s-etcd2:~# cat script.sh
#!/bin/bash
source /etc/profile
DATE=`date +%Y-%m-%d_%H-%M-%S`
ETCDCTL_API=3 /usr/bin/etcdctl snapshot save /data/etcd-backup-dir/etcd-snapshot-${DATE}.db

 

posted @ 2023-03-22 15:32  yuanbangchen  阅读(51)  评论(0编辑  收藏  举报