随笔分类 -  高可用

摘要:在《醍醐灌顶!异地多活架构设计看这篇就够了》一文中,基于容灾需要,讨论了数据写入的架构模型。数据读取方面,重点在于解决读取请求的负载分担、路由选择的问题,对于容灾架构的选择影响不大。不过,其中的“写后立即读”场景,是个一致性范畴的问题,即写入的数据和写入后读到的数据是否一致的问题,本文不展开讨论各种 阅读全文
posted @ 2025-01-10 15:33 paul_hch 阅读(16) 评论(0) 推荐(0) 编辑
摘要:keepalived+memcached主主复制高可用介绍:客户端连接两台服务器之间的VIP地址,如果后端服务器故障自动切换。 Keepalive原理:1.故障检测:Keepalived的作用是检测memcached服务器的状态是否正常。 2.主从切换:Keepalived如果检测到memcache 阅读全文
posted @ 2024-12-27 15:34 paul_hch 阅读(12) 评论(0) 推荐(0) 编辑
摘要:Minio使用教程_minio console 安装使用-CSDN博客https://blog.csdn.net/Waitfor_Me/article/details/144326073 MinIO使用基础教程_minio使用教程-CSDN博客https://blog.csdn.net/qq_406 阅读全文
posted @ 2024-12-17 15:26 paul_hch 阅读(12) 评论(0) 推荐(0) 编辑
摘要:该文详细描述了如何在两台服务器上部署FastDFS集群,包括Tracker和Storage节点的配置,Nginx模块设置,以及使用Keepalived实现VIP地址的高可用。 1.环境信息: 服务器 部署服务 192.168.222.11 Tracker(调度工作)、Storage(存储)、Ngin 阅读全文
posted @ 2024-12-17 10:11 paul_hch 阅读(127) 评论(0) 推荐(0) 编辑
摘要:目标实现统一的对外下载访问入口的高可用架构,其中所有的Nginx只做下载用途。 机器 安装说明 192.168.89.101 Libfastcommon,FastDFS 192.168.89.102 Libfastcommon,FastDFS 192.168.89.103 Libfastcommon 阅读全文
posted @ 2024-12-17 09:34 paul_hch 阅读(15) 评论(0) 推荐(0) 编辑
摘要:一、Minio分布式部署的优势 1.1 数据保护 分布式 Minio 采用纠删码来防范多个节点宕机和位衰减。 分布式 Minio 至少需要 4 个节点(4台服务器),使用分布式 Minio 就 自动引入了纠删码功能。 纠删码是一种恢复丢失和损坏数据的数学算法, Minio 采用 Reed-Solom 阅读全文
posted @ 2024-12-09 11:24 paul_hch 阅读(545) 评论(0) 推荐(0) 编辑
摘要:抽奖是一个典型的高并发场景应用,平时流量不多,但遇到大促活动,流量就会暴增,今年的周年庆期间的日均UV就超过百万。在过去的一年里,负责过这个项目的多次重构工作,期间各种踩坑无数,就以此文当做总结,来聊聊我们是如何架构这个高并发系统吧。 整体设计详解 在我看来,能提高服务器应对并发的能力的方式无非两种 阅读全文
posted @ 2024-10-28 11:26 paul_hch 阅读(64) 评论(0) 推荐(0) 编辑
摘要:异地多活是分布式系统架构设计的一座高峰,当业务系统走到需要考虑异地多活这一步,其体量和复杂度都会达到很高的水准。接入层、逻辑层、数据层的三层架构,基本上是每个业务都会拥有的基础架构形态,而三层架构的关键在于数据层,本文将从数据层切入探讨异地多活对于基础架构设计的影响。 关于基础架构 信息技术的发展, 阅读全文
posted @ 2024-10-18 10:34 paul_hch 阅读(40) 评论(0) 推荐(0) 编辑
摘要:1、Nacos 优势 问题,既然有了Eureka ,为啥还要用Nacos? 而 Nacos 作为微服务核心的服务注册与发现中心,让大家在 Eureka 和 Consule 之外有了新的选择,开箱即用,上手简洁,暂时也没发现有太大的坑。 注:本文以 PDF 持续更新,最新尼恩 架构笔记、面试题 的PD 阅读全文
posted @ 2024-10-14 14:36 paul_hch 阅读(45) 评论(0) 推荐(0) 编辑
摘要:keepalived日志报错Unsafe permissions found for script, Unsafe permissions found for script ‘/usr/local/src/nginx_check.sh global_defs 中不要使用enable_script_s 阅读全文
posted @ 2024-09-20 16:44 paul_hch 阅读(171) 评论(0) 推荐(0) 编辑
摘要:我的环境 两台阿里云centos7服务器 回到顶部 首先,去官网下载解压包,解压。 然后进入bin目录,需要修改runserver.sh文件和runbroker.sh文件。因为rocketmq默认配置文件需要的内存是非常高的。需要改小点。 就是把那两个文件的这个参数改得小点。改成512m就可以了 回 阅读全文
posted @ 2024-08-18 17:16 paul_hch 阅读(36) 评论(0) 推荐(0) 编辑
摘要:背景:keepalived默认是组播地址进行播放,且默认地址是224.0.0.18,如果配置多个keepalived主机,会导致虚拟IP地址存在冲突问题,这种问题怎么解决呢? 解决办法:就是将keepalived主机的多播地址修改为单播地址,绑定固定IP地址,避免在多播模式下,通过VRRP进行广播地 阅读全文
posted @ 2024-07-20 11:33 paul_hch 阅读(139) 评论(0) 推荐(0) 编辑
摘要:1.背景先说一下,为什么要使用 Flume + Kafka? 以实时流处理项目为例,由于采集的数据量可能存在峰值和峰谷,假设是一个电商项目,那么峰值通常出现在秒杀时,这时如果直接将 Flume 聚合后的数据输入到 Storm 等分布式计算框架中,可能就会超过集群的处理能力,这时采用 Kafka 就可 阅读全文
posted @ 2024-04-15 13:48 paul_hch 阅读(142) 评论(0) 推荐(0) 编辑
摘要:Offset Explorer(以前称为Kafka Tool)是一个用于管理和使用Apache Kafka®集群的GUI应用程序。 它提供了一个直观的界面,允许用户快速查看Kafka集群中的对象以及集群主题中存储的消息。 它包含面向开发人员和管理员的功能。 一些主要功能包括: 快速查看所有Kafka 阅读全文
posted @ 2024-04-15 13:27 paul_hch 阅读(5450) 评论(1) 推荐(1) 编辑
摘要:背景: 被控端(包括管理端,客户端,被管理端)的python升级到新版本之后,使用ansible报错 内网机器无法连接网络,需要使用pip离线安装的方式 原因: 默认使用yum安装的ansible是基于python2.7版本,很多功能指令都是调用python完成的,默认情况下会调用/usr/bin/ 阅读全文
posted @ 2024-02-19 17:08 paul_hch 阅读(77) 评论(0) 推荐(0) 编辑
摘要:最近一直在研究微服务相关内容,通过对比各大API网关,发现新起之秀 APISIX无论从开源程度上来讲还是功能上,都拥有很大的优势。 经历了几天折磨一样的学习,目前在本地环境中配置成功了一套,以供自己留存吧,实在是网上的很多文章要么太老了,要么就是乱写一通。 APISIX官方网址:https://ap 阅读全文
posted @ 2023-12-29 15:31 paul_hch 阅读(2433) 评论(0) 推荐(1) 编辑
摘要:Redis-Cluster集群之Cluster节点增减 上篇我们了解了Redis的cluster集群的搭建,现在我们来说一下cluster集群的节点的增减 集群增加主节点 1.新建一个7006的一个节点,让其作为一个新的主节点加入,在/redis-cluster目录下,新建一个7006目录,配置相应 阅读全文
posted @ 2023-10-09 10:07 paul_hch 阅读(542) 评论(0) 推荐(0) 编辑
摘要:redis-trib.rb是官方提供的Redis Cluster的管理工具,无需额外下载,默认位于源码包的src目录下,但因该工具是用ruby开发的,所以需要准备相关的依赖环境。 准备redis-trib.rb的运行环境 wget https://cache.ruby-lang.org/pub/ru 阅读全文
posted @ 2023-10-09 09:55 paul_hch 阅读(279) 评论(0) 推荐(0) 编辑
摘要:集群定义 1.1 每个字段的含义如下: 1. id: 节点ID,一个40字节的随机字符串,节点创建时生成,且不会变化(除非使用CLUSTER RESET HARD命令)。 2. ip:port: 客户端访问的地址。 3. flags: 逗号分隔的标记位,可能值有:myself, master, sl 阅读全文
posted @ 2023-10-08 16:34 paul_hch 阅读(373) 评论(0) 推荐(0) 编辑
摘要:查看log文件内容的方法: kafka-run-class.sh kafka.tools.DumpLogSegments --files 00000000002334704188.log --print-data-log 阅读全文
posted @ 2023-09-22 17:19 paul_hch 阅读(368) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示