随笔分类 -  存储相关

上一页 1 2 3 4 5 6 ··· 9 下一页
摘要:##前言 rbd 提供了一个回收站功能,这个是属于防呆设计,防止误操作删除rbd引起无法恢复的情况,rbd正常情况下的删除是马上会在后台回收空间的,这个也听说过有人做过误删除的操作,那么这个设计就是从操作逻辑上来尽量避免这个失误的 相关操作 命令比较简单就几条命令,luminous版本就支持了,提供 阅读全文
posted @ 2020-09-09 11:45 武汉-磨渣 阅读(1566) 评论(2) 推荐(0) 编辑
摘要:前言 在ceph 的jewel版本以及之前的版本,通过ceph -w命令是可以拿到每秒钟ceph集群的io状态的,现在的版本是ceph -s一秒秒手动去刷,ceph -w也不监控io的状态了,有的时候需要看io是否平滑,或者恢复还剩多少,能够比较直观的去看 实际上通过简单的脚本就可以实现之前差不多的 阅读全文
posted @ 2020-09-09 10:47 武汉-磨渣 阅读(894) 评论(0) 推荐(0) 编辑
摘要:前言 做rgw测试的时候,经常会有删除文件的操作,而用默认的参数的时候,rgw是通过gc回收机制来处理删除对象的,这个对于生产环境是有好处的,把删除对业务系统的压力分摊到不同的时间点,但是测试的时候,可能需要反复的写入删除,而这种情况下,可能希望能够迅速的回收对象,那么就需要修改几个参数了 参数 主 阅读全文
posted @ 2020-09-08 11:20 武汉-磨渣 阅读(1186) 评论(0) 推荐(0) 编辑
摘要:需求很简单,翻译官网的操作文档 下载ceph代码luminous版本 这个只用来编译doc的,我们只需要最新的这个分支即可,拉最少的代码 git clone -b v12.2.13 --single-branch --depth 1 git://github.com/ceph/ceph.git ce 阅读全文
posted @ 2020-09-04 15:26 武汉-磨渣 阅读(684) 评论(1) 推荐(0) 编辑
摘要:本篇关于希捷磁盘休眠的配置方法 准备设置的软件 下载地址 https://raw.githubusercontent.com/Seagate/ToolBin/master/SeaChest/PowerControl/v1.10.0/Linux/SeaChest_PowerControl_1100_1 阅读全文
posted @ 2020-08-25 14:54 武汉-磨渣 阅读(3049) 评论(0) 推荐(0) 编辑
摘要:前言 我们经常遇到的一个场景是需要把一个大文件通过互联网传递到另外一个地方,类似日志,或者大的安装包,有的时候是传输给自己,有的时候传输给别人 传输方式 百度盘我们都知道速度限制到怀疑人生,没会员的时候基本就是浪费时间,这种基本就不考虑做传输工具,备份下还可以,这里介绍的是几款比较方便的传输方式,这 阅读全文
posted @ 2020-07-31 14:45 武汉-磨渣 阅读(1425) 评论(0) 推荐(0) 编辑
摘要:前言 ceph比较老的版本使用的reweight或者osd weight来调整平衡的,本篇介绍的是ceph新的自带的插件balancer的使用,官网有比较详细的操作手册可以查询 使用方法 查询插件的开启情况 [root@node1 ceph]# ceph mgr module ls { "enabl 阅读全文
posted @ 2020-06-17 15:04 武汉-磨渣 阅读(2986) 评论(0) 推荐(0) 编辑
摘要:前言 很久没有处理很大的集群,在接触一个新集群的时候,如果集群足够大,需要比较长的时间才能去理解这个集群的结构,而直接去看ceph osd tree的结果,当然是可以的,这里是把osd tree的结构进行了一个结构化输出,也可以理解为画出一个简单的结构图,比较适合给其它人讲解你对crush做了哪些改 阅读全文
posted @ 2019-09-19 16:35 武汉-磨渣 阅读(1225) 评论(1) 推荐(0) 编辑
摘要:关于arm 之前wdlab对外发布过一次约500个节点的arm的ceph集群,那个采用的是微集群的结构,使用的是双核的cortex-a9 ARM处理器,运行速度为1.3 GHz,内存为1 GB,直接焊接到驱动器的PCB上,选项包括2 GB内存和ECC保护 这个在国内也有类似的实现,深圳瑞驰商用Arm 阅读全文
posted @ 2019-09-09 11:13 武汉-磨渣 阅读(942) 评论(0) 推荐(1) 编辑
摘要:前言 自启动相关的文章很多,有分析的很详细的文章,这里就不做赘述,本篇讲述的是什么情况下用,怎么用的问题 使用场景 一台机器的系统盘坏了,需要重装系统,相关的一些信息没有了,但是上面的数据盘还是在的,所以需要保留 某个磁盘需要换台机器进行启动,但是那台机器上没有相关的信息 处理过程 自启动的相关处理 阅读全文
posted @ 2019-09-04 10:30 武汉-磨渣 阅读(406) 评论(0) 推荐(0) 编辑
摘要:问题 通过对我们的启动流程看了下,目前是穿到一个脚本里面的,然后这个脚本是用无限循环的方式去执行一些事情,这个地方不符合松耦合的设计,一个模块做一个事情,两个并不相关的功能不要嵌入另一个脚本,否则出现问题的时候,不好更改不好优化 解决方式 首先分析ceph自身的启动方式 ceph的启动方式是通过去e 阅读全文
posted @ 2019-09-04 08:00 武汉-磨渣 阅读(214) 评论(0) 推荐(0) 编辑
摘要:引言 ceph自从到了L版本以后,L版本的启用,对性能本身有了极大的提高,一直对这个比较不放心的就是内存的占用,刚开始的时候记得大量dd就可以把内存搞崩掉,这个应该是内部的设计逻辑需要更多的内存的占用 最近在做ARM版本的服务器的测试,机器为36盘位的机器,内存需要自然多,但是36盘位的机器,按之前 阅读全文
posted @ 2019-09-03 15:10 武汉-磨渣 阅读(1743) 评论(5) 推荐(0) 编辑
摘要:需求描述 在某些测试场景下面,需要满足能够拔盘以后在插入的时候能够自动上线磁盘,这个需求实际在生产中是不建议使用的,原因是插入的磁盘如果本身存在问题,那么拉起的操作可能会破坏了本身集群的稳定性,所以这个算是一个测试相关的功能,但是做这个功能的前提是我们不要去影响了正常的环境的逻辑 类似的功能的开发都 阅读全文
posted @ 2019-09-02 08:01 武汉-磨渣 阅读(504) 评论(0) 推荐(0) 编辑
摘要:前言 服务器的服务做HA有很多种方式,其中有一种就是是用CTDB,之前这个是独立的软件来做HA的,现在已经跟着SAMBA主线里面了,也就是跟着samba发行包一起发行 之前CTDB的模式是需要有一个共享文件系统,并且在这个共享文件系统里面所有的节点都去访问同一个文件,会有一个Master会获得这个文 阅读全文
posted @ 2019-09-02 08:01 武汉-磨渣 阅读(951) 评论(0) 推荐(0) 编辑
摘要:前言 之前在filestore里面,pg是直接暴露到文件系统的,也就是可以直接进去查看或者拷贝,在极端情况下,多个osd无法启动,pg无法导出的时候,那么对pg内部对象的操作处理,是可以作为最后恢复数据的一种方式的 这个在bluestore里面就没那么直接了,之前也碰到过一次,osd无法启动,内部死 阅读全文
posted @ 2019-07-26 11:06 武汉-磨渣 阅读(653) 评论(2) 推荐(0) 编辑
摘要:前言 ceph已经是一个比较成熟的开源的分布式存储了,从功能角度上来说,目前的功能基本能够覆盖大部分场景,而社区的工作基本上是在加入企业级的功能和易用性还有性能等方面在发力在,不管你是新手还是老手,都绕不开的一个问题就是crush,而crush是决定着数据的分布的,很多人并不理解为什么会有这个cru 阅读全文
posted @ 2019-03-22 16:35 武汉-磨渣 阅读(615) 评论(0) 推荐(0) 编辑
摘要:前言 本篇的内容实际上是另外一篇文章的字篇章,在另外一篇文章当中,将会对crush的分布的调整的做一次总结,用比较简单的方式来展示各种crush的区别 在做这个工作过程中,为了更好的能展示出效果,就有了下面的这个小工具的出现 工具来源 假如我现在想查看一个存储池内的pg的分布,那么我们需要下面的几个 阅读全文
posted @ 2019-03-08 17:45 武汉-磨渣 阅读(1119) 评论(1) 推荐(0) 编辑
摘要:前言 前一段时间碰到一个系统,用rados bench 去跑都还比较正常,但是一跑数据库就非常慢,测试工具会抛出延时过大的提示,经过排查发现,云平台中有一台虚拟机还运行着备份数据库的服务,而这个备份软件是需要反复写一个标记文件的,因为这个标记文件只对应了一个对象,一个对象对应了一个pg,一个pg对应 阅读全文
posted @ 2019-01-03 22:56 武汉-磨渣 阅读(2206) 评论(5) 推荐(1) 编辑
摘要:前言 最近已经见到几个环境出现过incompelete了,这个在很久以前Jewel正在合入mark-complete工具的时候就有做过类似的处理,但是随着处理的环境越来越多,这个地方还是有些需要注意的,本篇是写一些需要注意的点 一般来说是环境有多个机器同时坏盘或者掉电,或者掉主机引起的 处理流程 拿 阅读全文
posted @ 2018-12-19 12:05 武汉-磨渣 阅读(397) 评论(0) 推荐(0) 编辑
摘要:前言 如果用cephfs比较多,应该都知道,在cephfs的客户端进行mount以后,看到的容量显示的是集群的总的容量,也就是你的总的磁盘空间是多少这个地方显示的就是多少 这个一直都是这样显示的,我们之前在hammer版本的时候,阿茂和大黄一起在公司内部实现了这个功能,社区会慢慢的集成一些类似的面向 阅读全文
posted @ 2018-08-19 11:29 武汉-磨渣 阅读(1371) 评论(0) 推荐(0) 编辑

上一页 1 2 3 4 5 6 ··· 9 下一页
点击右上角即可分享
微信分享提示