随笔 - 313
文章 - 29
评论 - 32
阅读 -
124万
随笔分类 - ceph
yum如何查询某个命令是什么包安装的
摘要:命令:yum whatprovides 命令的正则表达式 举例如下: [root@localhost ceph]# yum whatprovides rbd Loaded plugins: fastestmirror Loading mirror speeds from cached hostfil
阅读全文
Centos7上安装CeTune
摘要:Centos7上安装CeTune 最近,出了爆出LightOS-2.0_final_cn_20200709.pdf性能甩ceph几条街。其中LightOS评估ceph性能用的就是CeTune; 那CeTune默认是安装在Ubuntu上的,那么Centos7怎么安装,可参考如下步骤 最后尝试的结果 U
阅读全文
ceph报错"mon.node3 low disk space"
摘要:Jewel版cephfs,在磁盘满过一次后一直报"mon.node3 low disk space" 很奇怪。默认配置磁盘使用率超过70%才会报这个。但osd的使用率根本没这么大。 但是一看/boot目录已经超过70%,但另外的一个ceph集群/boot也超过70%但是没报错。 真是奇怪。 查看代码
阅读全文
Jewel版cephfs当rm -rf文件时报错"No space left on device"
摘要:Jewel版cephfs当rm -rf文件时报错"No space left on device" 一、概述 原因:cephfs的stray满了 不严谨地说, stray就相当于回收站,stray文件节点有文件数限制,默认是10万,定时删除,但删除的很慢。导致stray一直处于满的状态。严谨的说法在
阅读全文
ceph旧版客户端挂载新版ceph报错
摘要:问题描述 描述 当我们用低版本的rbd或cephfs客户端mount高版本的ceph服务端的时候会报错1000000000000、200000000000000或400000000000000 痛点:客户端是直接集成在Linux内核里的更新频率显然跟不上服务端社区的更新频率。 不更新ceph的服务端
阅读全文
Kubernetes使用Rook部署Ceph存储集群
摘要:官网地址 参考地址:https://rook.io/docs/rook/v1.3/ceph-quickstart.html 其实就简单的几步: git clone --single-branch --branch release-1.3 https://github.com/rook/rook.gi
阅读全文
CEPH 14.2.9(nautilus)手动安装遇到的问题及解决方法
摘要:CEPH 14.2.9(nautilus)手动安装遇到的问题及解决方法 "Error ERANGE: pg_num 800 size 2 would mean 2112 total pgs, which exceeds max 750 (mon_max_pg_per_osd 250 * num_in
阅读全文
cephfs配额问题
摘要:使用cephfs需要给单个用户设置一个配额。 参考地址 设置配额:http://docs.ceph.org.cn/cephfs/quota/ 验证过程 fuse挂载 [root@node1 mnt]# ceph-fuse -m 192.168.1.21 /mnt/ceph2 设置并查询配额 [roo
阅读全文
ceph机房断电之后重启遇到问题“Transaction order is cyclic. See system logs for details.”
摘要:机房停电,ceph启动出现问题: [root@node1 my-cluster]# systemctl restart ceph.target Failed to stop ceph.target: Transaction order is cyclic. See system logs for d
阅读全文
cephfs测试中出现的问题
摘要:最近重新对cephfs进行性能测试。 测试步骤: (1) 选取一个特地版本的操作系统内核,挂载20000个客户端; (2) 用iozone中的fileop工具,在每隔挂载点上都跑一个fileop进程; (3)过一段时间看写cephfs的状态,结果就变成下面这样的了。 [root@ceph741 ~]
阅读全文
mds0: Many clients (191) failing to respond to cache pressure
摘要:cephfs时我们产品依赖的主要分布式操作系统,但似乎很不给面子,压力测试的时候经常出问题。 背景 集群环境出现的问题: mds0: Many clients (191) failing to respond to cache pressure 背景:三个节点,100多个客户端mount,服务器可用
阅读全文
修改ceph的IP地址
摘要:自己测试的时候用的是虚拟机,在调试过程中遇到切换环境换IP的情况。 那么ceph应该怎样换IP呢? [TOC] 修改步骤: 1.导出mon的配置; 2.修改mon的配置; 3.修改ceph配置文件 4.关闭ceph集群 5.修改服务器IP,/etc/hosts对应的ip等: 6.导入修改后的mon配
阅读全文
Windows编译安装使用cephfs客户端
摘要:本文介绍如何将cephfs映射到windows的一个盘上,以磁盘映射的方式访问cephfs。 1.下载必要安装包 tdm-gcc:(安装时选32位)https://sourceforge.net/projects/tdm-gcc/files/TDM-GCC%20Installer/tdm-gcc-5
阅读全文
Win10安装.NetFamework3.5
摘要:步骤1:装载Win10安装镜像 本人用的是"cn_windows_10_multiple_editions_x64_dvd_6848463.iso" 如图,我把镜像装载到H盘; 步骤2:安装Famework 以管理员身份打开命令行 执行命令(其中H是我刚才镜像挂在的盘符):Dism /online
阅读全文
SAN和NAS的区别
摘要:SAN和NAS的区别 从上图可以看出: NAS的成本比SAN低很多。前端只使用以太网口即可,FC适配卡以及交换机的成本相对于以太网卡和以太交换机来说是非常高的。 NAS可以解放主机上的CPU和内存资源: NAS的扩展性很强,只要有IP的地方,NAS就可以提供服务,很容易部署和配置; NAS设备一般都
阅读全文
raid10模型比raid01模型的冗余度高
摘要:RAID10和RAID01的冗余度看起来差不多,但本质上有一定的区别。 RAID10:左边损坏1块盘,右边还可以容忍一块盘损坏而不影响整体的数据;冗余度=2 RAID01:左边损坏1块盘,此时左边已经没有用,右边再损坏一块盘必然影响整体数据的可用性;冗余度=1 RAID10要比RAID01的冗余度高
阅读全文
raid卡的结构示意图
摘要:raid卡的结构示意图,取自《大话存储》第124页 ROM:一般用FLash芯片做ROM,存放着初始化RAID卡必须的代码以及实现RAID功能所需的代码; XOR芯片:专门用来做RAID 3、5、6等这类校验型RAID的校验数据计算用的。 SCSI总线:目前SCSI RAID卡最高有4通道的,其后端
阅读全文
ceph使用对象网关
摘要:1. 介绍 三种验证客户端的方式选一种就行了 2. 安装 2.1 创建对象存储网关系统 步骤1:安装文档安装ceph 步骤2:初始化缓存网关 [root@node1 my-cluster]# ceph-deploy rgw create node1 [ceph_deploy.conf][DEBUG
阅读全文
ceph crush的问题
摘要:ceph crush的问题看一遍忘一遍,现将《ceph源码分析》一书中相关章节摘抄如下: 4.2.1 层级化的Cluster Map例4-1 Cluster Map定义层级化的Cluster Map定义了OSD集群具有层级关系的静态拓扑结构。OSD的层级使得CRUSH算法在选择OSD时实现了机架感知
阅读全文
ceph问题总结
摘要:之前测试用ceph总是警告 health HEALTH_WARN pool cephfs_metadata2 has many more objects per pg than average (too few pgs?) pool cephfs_data2 has many more object
阅读全文