Ceph

1|0ceph集群部署

准备四台服务器挂载50G硬盘

配置好阿里源

修改主机名

hostnamectl set-hostname ceph-admin hostnamectl set-hostname mon01 hostnamectl set-hostname mon02 hostnamectl set-hostname mon03

修改四台服务器hosts文件

cat >/etc/hosts <<EOF 127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4 ::1 localhost localhost.localdomain localhost6 localhost6.localdomain6 192.168.88.59 ceph-admin 192.168.88.55 stor01 mon01 mds 192.168.88.56 stor02 mon02 mgr01 192.168.88.57 stor03 mon03 mgr03 rgw EOF
在四台服务器上进行时间同步
sudo systemctl restart chronyd.service
在ceph-admin节点上,使用如下命令即可安装生成mimic版本相关的yum仓库配置。
rpm -ivh https://mirrors.aliyun.com/ceph/rpm-mimic/el7/noarch/ceph-release-1-1.el7.noarch.rpm
在四台服务器创建cephadm用户并设置权限
useradd cephadm
echo "123456" | passwd --stdin cephadm
echo "cephadm ALL = (root) NOPASSWD:ALL" | sudo tee /etc/sudoers.d/cephadm
chmod 0440 /etc/sudoers.d/cephadm
在ceph-admin配置cephadm用户基于密钥的ssh认证
su cephadm
cd ~
ssh-keygen -t rsa -P ""
ssh-copy-id -i .ssh/id_rsa.pub cephadm@mon01
ssh-copy-id -i .ssh/id_rsa.pub cephadm@mon02 ssh-copy-id -i .ssh/id_rsa.pub cephadm@mon03
cat >~/.ssh/config<<EOF Host mon01 Hostname mon01 User cephadm Host mon02 Hostname mon02 User cephadm Host mon03 Hostname mon03 User cephadm EOF
chmod 600 ~/.ssh/config
mkdir ceph-cluster && cd ceph-cluster
初始化RADOS集群,初始化第一个MON节点,准备创建集群
sudo yum install -y ceph-deploy python-setuptools python2-subprocess32
ceph-deploy new mon01
在[global]配置段中设置Ceph集群面向客户端通信时使用的IP地址所在的网络
[cephadm@ceph-admin ceph-cluster]$ vim ceph.conf [global] public network = 192.168.88.0/16
安装Ceph集群
ceph-deploy install mon01 mon02 mon03
配置初始MON节点,并收集所有密钥
ceph-deploy mon create-initial
把配置文件和admin密钥拷贝Ceph集群各节点,以免得每次执行”ceph“命令行时不得不明确指定MON节点地址和ceph.client.admin.keyring
ceph-deploy admin mon01 mon02 mon03

在三个mon节点上(需要运行ceph命令的的节点上)以root用户的身份设定用户cephadm能够读取/etc/ceph/ceph.client.admin.keyring文件

setfacl -m u:cephadm:r /etc/ceph/ceph.client.admin.keyring
配置Manager节点,启动ceph-mgr进程(仅Luminious+版本)
ceph-deploy mgr create mon01

以admin节点测试集群的健康状态

sudo yum install -y ceph sudo cp ceph.client.admin.keyring /etc/ceph/ sudo setfacl -m u:cephadm:r /etc/ceph/ceph.client.admin.keyring ceph -s
在向RADOS集群添加OSD
admin进行操作,擦净磁盘
ceph-deploy disk zap mon01 /dev/sdb ceph-deploy disk zap mon02 /dev/sdb ceph-deploy disk zap mon03 /dev/sdb
添加OSD
ceph-deploy osd create mon01 --data /dev/sdb ceph-deploy osd create mon02 --data /dev/sdb ceph-deploy osd create mon03 --data /dev/sdb
[cephadm@ceph-admin ceph-cluster]$ ceph -s cluster: id: cc8de568-3b0c-4eca-9243-7f5bef6c7dab health: HEALTH_OK services: mon: 1 daemons, quorum mon01 mgr: mon01(active) osd: 3 osds: 3 up, 3 in data: pools: 0 pools, 0 pgs objects: 0 objects, 0 B usage: 3.0 GiB used, 147 GiB / 150 GiB avail pgs:
从RADOS集群中移除OSD
1. 停用设备:ceph osd out {osd-num} 2. 停止进程:sudo systemctl stop ceph-osd@{osd-num} 3. 移除设备:ceph osd purge {id} --yes-i-really-mean-it

重新添加OSD需要完全卸载lvm

查看OSD的相关信息
ceph-deploy osd list mon01 mon02 mon03 ceph osd stat ceph osd dump ceph osd ls

2|0执行以下操作时,需

su cephadm cd ~/ceph-cluster/

3|0扩展集群

生产环境中,为了实现高可用性,Ceph存储集群通常运行多个监视器,以免单监视器整个存储集群崩溃。
[cephadm@ceph-admin ceph-cluster]$ ceph-deploy mon add mon02 [cephadm@ceph-admin ceph-cluster]$ ceph-deploy mon add mon03 [cephadm@ceph-admin ceph-cluster]$ ceph-deploy mgr create mon02
[cephadm@ceph-admin ceph-cluster]$ ceph -s cluster: id: cc8de568-3b0c-4eca-9243-7f5bef6c7dab health: HEALTH_WARN too few PGs per OSD (16 < min 30) clock skew detected on mon.mon02, mon.mon03 services: mon: 3 daemons, quorum mon01,mon02,mon03 mgr: mon01(active), standbys: mon02 osd: 3 osds: 3 up, 3 in data: pools: 1 pools, 16 pgs objects: 0 objects, 0 B usage: 3.0 GiB used, 147 GiB / 150 GiB avail pgs: 16 active+clean

4|0用户管理

增加用户

此命令是创建用户并仅返回用户密钥,对于只需要密钥的客户端(例如 libvirt),此命令非 常有用。如果该用户已存在,此命令只返回密钥。

ceph auth get-or-create-key client.tom mon 'allow r' osd 'allow rwx pool=mypool'

导出 keyring 至指定文件,用作误删除用户操作

ceph auth get client.tom -o ceph.client.tom.keyring

列出用户

ceph auth list

列出指定用户

ceph auth get client.admin

删除用户

ceph auth del client.tom

删除用户后用keyring文件恢复用户

ceph auth import -i ceph.client.tom.keyring

查看用户是否恢复成功

[cephadm@ceph-admin ceph-cluster]$ ceph auth import -i ceph.client.tom.keyring imported keyring [cephadm@ceph-admin ceph-cluster]$ ceph auth get client.tom exported keyring for client.tom [client.tom] key = AQAqJFNjSpVQEBAAt5zB69uRYWnSkeO88HBbfQ== caps mon = "allow r" caps osd = "allow rwx pool=mypool"

秘钥环文件多用户

创建 空keyring 文件

ceph-authtool --create-keyring ceph.client.user.keyring

把指定的 user1和user2用户的keyring文件内容导入到keyring 文件

ceph-authtool ./ceph.client.user.keyring --import-keyring ./ceph.client.user1.keyring ceph-authtool ./ceph.client.user.keyring --import-keyring ./ceph.client.user2.keyring

验证 keyring 文件是否包含多个用户的认证信息

[cephadm@ceph-admin ceph-cluster]$ ceph-authtool -l ./ceph.client.user.keyring [client.user1] key = AQDfQVNjragrIhAAKAtEZSNSMz46WqnrrED8Qw== caps mon = "allow r" caps osd = "allow rwx pool=mypool" [client.user2] key = AQDkQVNj5HSGERAAzlHgeSFv7GkGNhPhWlKgiQ== caps mon = "allow r" caps osd = "allow rwx pool=mypool"

删除user1和user2后尝试恢复

[cephadm@ceph-admin ceph-cluster]$ ceph auth import -i ceph.client.user.keyring [cephadm@ceph-admin ceph-cluster]$ ceph auth get client.user1 exported keyring for client.user1 [client.user1] key = AQDfQVNjragrIhAAKAtEZSNSMz46WqnrrED8Qw== caps mon = "allow r" caps osd = "allow rwx pool=mypool" [cephadm@ceph-admin ceph-cluster]$ ceph auth get client.user2 exported keyring for client.user2 [client.user2] key = AQDkQVNj5HSGERAAzlHgeSFv7GkGNhPhWlKgiQ== caps mon = "allow r" caps osd = "allow rwx pool=mypool"

5|0创建pool池

存取数据时,客户端必须首先连接至RADOS集群上某存储池,而后根据对象名称由相关的CRUSH规则完成数据对象
寻址。于是,为了测试集群的数据存取功能,这里首先创建一个用于测试的存储池mypool,并设定其PG数量为16个
ceph osd pool create mypool 16

 一个pool存储池内应有pg数

osd daemon个数 < 5 128 5< osd daemon个数 < 10 512 10< osd daemon个数 < 50 4096 osd daemon个数 > 50 可以查询官网进行计算
而后即可将测试文件上传至存储池中,例如下面的“rados put”命令将/etc/issue文件上传至mypool存储池,对象名
称依然保留为文件名issue,而“rados ls”命令则可以列出指定存储池中的数据对象。
rados put issue /etc/issue --pool=mypool rados ls --pool=mypool issue
获取到存储池中数据对象的具体位置信息:
ceph osd map mypool issue osdmap e16 pool 'mypool' (1) object 'issue' -> pg 1.651f88da (1.a) -> up ([2,1,0], p2) acting ([2,1,0], p2)
删除数据对象
rados rm issue --pool=mypool
删除存储池命令存在数据丢失的风险,Ceph于是默认禁止此类操作。管理员需要在ceph.conf配置文件中启用支持删
除存储池的操作后,方可使用类似如下命令删除存储池。
ceph osd pool rm mypool mypool --yes-i-really-really-mean-it

6|0rbd使用

创建名为image的镜像

rbd create image --size 1G --pool mypool

查看镜像

rbd ls --pool mypool

查看镜像详细信息

[cephadm@ceph-admin ceph-cluster]$ rbd --image image --pool mypool info rbd image 'image': size 1 GiB in 256 objects order 22 (4 MiB objects) id: 108c6b8b4567 block_name_prefix: rbd_data.108c6b8b4567 format: 2 features: layering, exclusive-lock, object-map, fast-diff, deep-flatten op_features: flags: create_timestamp: Sat Oct 22 00:52:19 2022

扩容镜像

rbd resize --pool mypool --image image --size 2G

不建议直接删除镜像用以下方法(直接删除无法恢复)
rbd remove mypool/image
推荐方法:

rbd trash move mypool/image rbd trash list --pool mypool rbd trash restore mypool/id (id用list看) (恢复操作)

挂载rbd具体操作

创建池

ceph osd pool create mypool 16

转换存储池mypool为rbd模式

ceph osd pool application enable mypool rbd

初始化存储池

rbd pool init -p mypool

创建镜像

rbd create --size 1G --pool mypool image

在mon节点或admin创建一个可以访问rbd存储的用户

[root@mon03 ~]# ceph auth get-or-create client.rbd osd "allow * pool=mypool" mon "allow rw" > /etc/ceph/ceph.client.rdb.keyring [root@mon03 ~]# ceph auth get client.rbd exported keyring for client.rbd [client.rbd] key = AQAoSlNjU6BuKhAAI6ktsxC3EL+HxxhMFQpbmw== caps mon = "allow rw" caps osd = "allow * pool=mypool"

修改镜像特性,镜像默认只支持layering和striping特性。需关闭

[root@mon03 ~]# rbd feature disable mypool/image object-map,fast-diff,deep-flatten

将ceph的配置文件以及密钥文件放到客户机(操作略)

在客户端安装ceph-common包

yum install ceph-common -y

执行客户端映射:

[root@mon03 ~]# rbd map --pool mypool --image image --keyring /etc/ceph/ceph.client.rdb.keyring --user rbd /dev/rbd0

查看/断开映射

rbd showmapped rbd unmap mypool/image

格式化并挂载

[root@mon03 ~]# mkfs.xfs /dev/rbd0 [root@mon03 ~]# mount /dev/rbd0 /mnt/ [root@mon03 ~]# df -h 文件系统 容量 已用 可用 已用% 挂载点 devtmpfs 898M 0 898M 0% /dev tmpfs 910M 0 910M 0% /dev/shm tmpfs 910M 9.5M 901M 2% /run tmpfs 910M 0 910M 0% /sys/fs/cgroup /dev/mapper/centos-root 37G 1.8G 36G 5% / /dev/sda1 497M 144M 354M 29% /boot tmpfs 182M 0 182M 0% /run/user/0 tmpfs 910M 52K 910M 1% /var/lib/ceph/osd/ceph-2 /dev/rbd0 2.0G 33M 2.0G 2% /mnt

在线扩容

服务端:

rbd resize --pool mypool --image image --size 5G

客户端:

xfs_growfs /dev/rbd0

镜像导入导出

导出:

rbd export mypool/image /tmp/mypool_image.bak

导入:

rbd import /tmp/mypool_image.bak mypool/image

做快照还原注意:
卸载客户端断开映射umount
rbd unmap mypool/image
在服务端恢复快照
客户端重新映射

快照也可以导入导出,方法如下

7|0rbd快照

示例(简约用法): 创建快照 rbd snap create mypool/image@img1_snap1 查看指定镜像快照: rbd snap list mypool/image 还原快照: rbd snap rollback mypool/image@image_snap1 限制镜像快照个数: rbd snap limit set mypool/image --limit 3 解除限制: rbd snap limit clear mypool/image 删除快照: rbd snap rm mypool/image@image_snap1 删除所有快照: rbd snap purge mypool/image 快照克隆: 1,将上游快照设置为保护模式 rbd snap protect mypool/image@image_snap1 2,克隆新快照: rbd clone mypool/image@image_snap1 --dest mypool/img2 查看克隆快照: rbd children mypool/image@image_snap1 一般来说父快照不可以删除,因为新镜像来自父快照。 如果想删除父快照保留克隆需要展平 1,展平子镜像,使子快照作为新的独立镜像 rbd flatten mypool/img2 2,取消父快照的保护 rbd snap unprotect mypool/image@image_snap1 3,删除父快照。

8|0ceph的fs使用

启用文件系统(CephFS)接口
CephFS需要至少运行一个元数据服务器(MDS)守护进程(ceph-mds),此进程管理与CephFS上存储的文件相关
的元数据,并协调对Ceph存储集群的访问。因此,若要使用CephFS接口,需要在存储集群中至少部署一个MDS实例

[cephadm@ceph-admin ceph-cluster]$ ceph-deploy mds create mon01

创建数据池

[cephadm@ceph-admin ceph-cluster]$ ceph osd pool create fs_data 64

创建元数据池

[cephadm@ceph-admin ceph-cluster]$ ceph osd pool create fs_metadata 64

启用pool   

ceph fs new <fs_name> <metadata> <data>(注意不要放反数据池)

[cephadm@ceph-admin ceph-cluster]$ ceph fs new cephfs fs_metadata fs_data

查看cephfs

[cephadm@ceph-admin ceph-cluster]$ ceph fs ls name: cephfs, metadata pool: fs_metadata, data pools: [fs_data ]

创建使用用户:

ceph fs authorize cephfs client.oldliu / rw | tee oldliu.keyring

客户端需要有ceph.cnf以及创建的用户密钥文件,以及ceph软件包

发送到客户端

[cephadm@ceph-admin ceph-cluster]$ sudo scp oldliu.keyring mon03:/etc/ceph

根据用户密钥文件生成密钥key

[root@mon03 ~]# ceph-authtool -n client.oldliu -p /etc/ceph/oldliu.keyring > /etc/ceph/oldliu.key

客户端挂载:

mount -t ceph mon1:6789,mon2:6789,mon3:6789:/ 本地路径 -o name=用户名, secret=密钥
或者
mount -t ceph mon1:6789,mon2:6789,mon3:6789:/ 本地路径 -o name=用户名, secretfile=密钥文件

[root@mon03 ~]# mount -t ceph mon01:6789,mon02:6789,mon03:6789:/ /mnt -o name=oldliu,secretfile=/etc/ceph/oldliu.key
[root@mon03 ~]# df -h 文件系统 容量 已用 可用 已用% 挂载点 devtmpfs 898M 0 898M 0% /dev tmpfs 910M 0 910M 0% /dev/shm tmpfs 910M 9.5M 901M 2% /run tmpfs 910M 0 910M 0% /sys/fs/cgroup /dev/mapper/centos-root 37G 1.9G 36G 6% / /dev/sda1 497M 144M 354M 29% /boot tmpfs 182M 0 182M 0% /run/user/0 tmpfs 910M 52K 910M 1% /var/lib/ceph/osd/ceph-2 192.168.88.55:6789,192.168.88.56:6789,192.168.88.57:6789:/ 47G 0 47G 0% /mnt

 权限为/test

[cephadm@ceph-admin ceph-cluster]$ ceph fs authorize cephfs client.dyz /test r | tee dyz.keyring
[cephadm@ceph-admin ceph-cluster]$ sudo scp dyz.keyring mon03:/etc/ceph
root@mon03 /]# df -h 文件系统 容量 已用 可用 已用% 挂载点 devtmpfs 898M 0 898M 0% /dev tmpfs 910M 0 910M 0% /dev/shm tmpfs 910M 9.5M 901M 2% /run tmpfs 910M 0 910M 0% /sys/fs/cgroup /dev/mapper/centos-root 37G 1.9G 36G 6% / /dev/sda1 497M 144M 354M 29% /boot tmpfs 182M 0 182M 0% /run/user/0 tmpfs 910M 52K 910M 1% /var/lib/ceph/osd/ceph-2 192.168.88.55:6789,192.168.88.56:6789,192.168.88.57:6789:/ 47G 0 47G 0% /mnt
[root@mon03 mnt]# mkdir /mnt/test
[root@mon03 mnt]# vim /mnt/test/1.txt
123245
[root@mon03 mnt]# cd / [root@mon03 /]# umount /mnt
[root@mon03 /]# mount -t ceph mon01:6789,mon02:6789,mon03:6789:/test /mnt -o name=dyz,secretfile=/etc/ceph/dyz.key
[root@mon03 /]# df -h 文件系统 容量 已用 可用 已用% 挂载点 devtmpfs 898M 0 898M 0% /dev tmpfs 910M 0 910M 0% /dev/shm tmpfs 910M 9.5M 901M 2% /run tmpfs 910M 0 910M 0% /sys/fs/cgroup /dev/mapper/centos-root 37G 1.9G 36G 6% / /dev/sda1 497M 144M 354M 29% /boot tmpfs 182M 0 182M 0% /run/user/0 tmpfs 910M 52K 910M 1% /var/lib/ceph/osd/ceph-2 192.168.88.55:6789,192.168.88.56:6789,192.168.88.57:6789:/test 47G 0 47G 0% /mnt
[root@mon03 /]# cd /mnt/ [root@mon03 mnt]# ls 1.txt [root@mon03 mnt]# vim 1.txt 123245dasdasa ~ ~ ~ ~ "1.txt" "1.txt" E212: 无法打开并写入文件 请按 ENTER 或其它命令继续

9|0 rgw对象存储

三个方面:
1,用户 (user)
2,存储桶(bucket)
3,对象(object)
三者关系,user将object存储到存储系统的bucket上
存储桶属于某个用户并可以容纳对象,一个存储桶可以存储多个对象
同一个用户可以有多个存储桶,不同用户允许使用相同名字的存储桶,因此用户名可以作为存储桶的名称空间。

创建rgw守护进程

ceph-deploy rgw create mon03

 

 更改rgw监听的端口

[cephadm@ceph-admin ceph-cluster]$ vim ceph.conf [client.rgw.mon03] rgw_host = mon03 rgw_frontends = "civetweb port=8080 num_threads=500 request_timeout_ms=60000"
ceph-deploy --overwrite-conf config push mon01 mon02 mon03

重启服务

[root@mon03 ~]# systemctl restart ceph-radosgw.target

 

 HTTPS配置

生成CA证书私钥:civetweb.key

[root@mon03 ~]# openssl genrsa -out civetweb.key 2048

生成CA证书公钥:civetweb.crt

[root@mon03 ~]# openssl req -new -x509 -key civetweb.key -out civetweb.crt -days 3650 -subj "/CN=192.168.88.30"

将生成的证书合并为pem

cat civetweb.key civetweb.crt > /etc/ceph/civetweb.pem

修改ceph.conf配置文件

[root@mon03 ~]# vim /etc/ceph/ceph.conf [client.rgw.mon03] rgw_host = mon03 rgw_frontends = "civetweb port=80+443s ssl_certificate=/etc/ceph/civetweb.pem num_threads=500 request_timeout_ms=60000"

重启服务

[root@mon03 ~]# systemctl restart ceph-radosgw.target

 创建rgw的访问用户

radosgw-admin user create --uid="test" --display-name="test user"

注意重要的是创建后生成的access_key 以及secret_key

"access_key": "UPW5QK3V6B5TUQ059SS4",
"secret_key": "ijlwiqYnCgjlsnKNsn6Gl7pDqRgix4D5HlpEo0Gc"

如果忘记,可用下面命令重新查看
radosgw-admin user info --uid="test"

 插入数据脚本

import ssl import boto.s3.connection from boto.s3.key import Key try: _create_unverified_https_context = ssl._create_unverified_context except AttributeError: pass else: ssl._create_default_https_context = _create_unverified_https_context # test用户的keys信息 access_key = "UPW5QK3V6B5TUQ059SS4" secret_key = "ijlwiqYnCgjlsnKNsn6Gl7pDqRgix4D5HlpEo0Gc" # rgw的ip与端口 host = "192.168.88.30" port = 443 # 如果使用443端口,下述链接应设置is_secure=True # port = 80 # 如果使用80端口,下述链接应设置is_secure=False conn = boto.connect_s3( aws_access_key_id=access_key, aws_secret_access_key=secret_key, host=host, port=port, is_secure=True, validate_certs=False, calling_format=boto.s3.connection.OrdinaryCallingFormat() ) # 一:创建存储桶 conn.create_bucket(bucket_name='bucket01') conn.create_bucket(bucket_name='bucket02') # 二:获得一个存储桶 bucket1 = conn.get_bucket('bucket01') bucket2 = conn.get_bucket('bucket02') # 三:判断是否存在,不存在返回None exists = conn.lookup('bucket01') print(exists) exists = conn.lookup('bucket02') print(exists) # 四:查看一个bucket下的内容 print(list(bucket1.list())) print(list(bucket2.list())) # 五:向s3上存储数据, 数据来源可以是file、stream、or string # 5.1、上传文件 bucket1 = conn.get_bucket('bucket01') key = Key(bucket=bucket1, name='myfile') # name的值是数据的key key.set_contents_from_filename('test.txt') print(key.get_contents_as_string()) # 读取s3中文件的内容,返回string即文件egon.txt的内容 # 5.2、上传字符串 bucket1 = conn.get_bucket('bucket01') # 如果之前已经获取过对象,此处不需要重复获取 k = Key(bucket1) k.key = 'xxx' k.set_contents_from_string('egon is happy') print(k.get_contents_as_string()) # # 六:删除一个存储桶,在删除存储桶本身时必须删除该存储桶内的所有key # bucket1 = conn.get_bucket('bucket01') # for key in bucket1: # key.delete() # bucket1.delete() # # # bucket1.get_all_keys()[0].delete() # 删除某一个key # # # 迭代遍历buckets and keys # for bucket in conn: # for key in bucket: # print(key.name,key.get_contents_as_string()) # # # 一个判断文件夹中是否有文件的方法 # bucket1 = conn.get_bucket('bucket01') # res = bucket1.get_all_keys() # if len(res) > 0: # print('有文件') # else: # print('为空')

 

10|0Ceph启⽤Dashboard V2

 启⽤相关的模块

ceph mgr module enable dashboard

若使⽤http协议的Dashboard V2,需要设定禁⽤SSL功能:

ceph config set mgr mgr/dashboard/ssl false

若使⽤https协议的Dashboard V2,需要以如下步骤⽣成证书及相关配置:
Dashboard要通过https协议提供服务。管理员可配置其使⽤⾃动⽣成的⾃签证书,也可以为其提供⾃定义的证书
⽂件,⼆者先其⼀即可。
若需要使⽤⾃签证书,运⾏如下命令⽣成⾃动⽣成证书即可:
~]$ ceph dashboard create-self-signed-cert
若需要⾃定义证书,则应该通过合适的⽅式获取到相关证书。例如,以如下⽅式运⾏命令⽣成⾃定义的证书:
~]$ openssl req -new -nodes -x509 -subj "/O=IT/CN=ceph-mgr-dashboard" \ -days 3650 -keyout
dashboard.key -out dashboard.crt -extensions v3_ca
⽽后配置dashboard加载证书:
~]$ ceph config-key set mgr mgr/dashboard/crt -i dashboard.crt ~]$ ceph config-key set mgr
mgr/dashboard/key -i dashboard.key

 配置监听的地址和端⼝

ceph config set mgr mgr/dashboard/mon01/server_addr 192.168.88.10
ceph config set mgr mgr/dashboard/mon01/server_port 8443

配置管理员认证信息

ceph dashboard set-login-credentials admin 123456

重新启⽤Dashboard V2

ceph mgr module disable dashboard
ceph mgr module enable dashboard

登录

11|0进行压测

进行10s的压测

rados bench 10 write rand -t 100 -b 4K -p mypool

 

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

 


__EOF__

本文作者panda-wei
本文链接https://www.cnblogs.com/panda-wei/p/16812984.html
关于博主:评论和私信会在第一时间回复。或者直接私信我。
版权声明:本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
声援博主:如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。您的鼓励是博主的最大动力!
posted @   kivtx  阅读(65)  评论(0编辑  收藏  举报
(评论功能已被禁用)
相关博文:
阅读排行:
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 从HTTP原因短语缺失研究HTTP/2和HTTP/3的设计差异
· 三行代码完成国际化适配,妙~啊~
点击右上角即可分享
微信分享提示