谈服务可用性监控
2020-12-24 10:00 轩脉刃 阅读(2067) 评论(0) 编辑 收藏 举报谈服务可用性监控
一个服务的监控从整体考虑,要达到哪些才能算是完善的?我想,如果没有一个全局性的监控思考,一个服务的监控即使加的再多也是会有监控盲区的。
监控的层次
从基础机器到上层业务,分为三个不同层次:系统,应用,业务。不同的层次都应该有其不同的监控目的。
系统监控
这个层次监控服务所在服务器的可用性。服务器的各项基本指标是否正常。包括服务器的CPU,服务器的磁盘,服务器的内存等。
有的服务器会进行服务混布,这种监控更为重要。因为其他服务导致的服务器问题只能通过系统监控层面得到反馈。
操作系统层面的监控也是最为基础的了。如果我们购买云服务器,阿里云或者腾讯云上都会有对应的监控设置,但如果是自有的虚拟化集群,集群管理也有对应的开源实现,比如 prometheus + node_exporter 的形式。
这类监控报警通常关注的就是机器CPU负载,空闲内存,网络带宽,磁盘空间等。
应用监控
这个层次监控当前服务进程的可用性。分析当前服务进程与业务无关的各项指标。把一个应用(进程)当作是黑盒,不管其中的业务逻辑正确与否,只观察这个应用的健康状态。大致应用状态包含:
- 进程数
- CPU占用
- 内存占用
- Coredump情况
- fd打开数
对于这个级别的监控,prometheus 也有一个 process_exporter 是专门做这个事情的。
在应用监控的时候,对于 Golang 项目,需要监控进程的runtime信息。
这个runtime信息包括:
- gorutine个数
- gc暂停时间
- gc次数
- 内存分配
Go 的 runtime 的基本监控方法都是在 Golang 的进程中插入一个包,这个包负责监控 runtime, 并且打点到 metric 系统。
prometheus 也提供了这样一个库: github.com/prometheus/client_golang
能打出这样一些关于runtime的数据:
go_gc_duration_seconds{quantile="0"} 0
go_gc_duration_seconds{quantile="0.25"} 0
go_gc_duration_seconds{quantile="0.5"} 0
go_gc_duration_seconds{quantile="0.75"} 0
go_gc_duration_seconds{quantile="1"} 0
go_gc_duration_seconds_sum 0
go_gc_duration_seconds_count 0
# HELP go_goroutines Number of goroutines that currently exist.
# TYPE go_goroutines gauge
go_goroutines 8
# HELP go_info Information about the Go environment.
# TYPE go_info gauge
go_info{version="go1.14.2"} 1
# HELP go_memstats_alloc_bytes Number of bytes allocated and still in use.
# TYPE go_memstats_alloc_bytes gauge
go_memstats_alloc_bytes 2.563056e+06
业务监控
这个层次监控具体的业务了。这个层次的监控关注的是业务是否可用,业务是否有走入异常分支,业务哪些服务是比较慢的。
关于业务监控,个人的感觉是尽量不要使用metric监控,因为业务的问题一旦报警,排查是需要分析的,这个时候如果仅仅是告诉开发有异常了,但是没有对应的日志,或者查找日志需要去线上机器一个个捞,是一件很痛苦的事情。
所以业务监控的实现方式,基本上都是落盘日志 + 日志文件采集 + 结构化处理 + 分布式日志存储 + 分析报警。
标准的 ELK 三件套非常适合进行实操部署这套。
业务监控应该从三个方面进行报警:
性能监控
监控每个业务请求的性能指标,可以对具体的业务请求的性能进行完整的展示。
我们应该对整体请求的请求时长,所有网络调用的请求时长,所有数据操作的网络时长,以及关键函数的请求时长都有记录。最后在具体分析的时候就能有所抓手。
链路监控
监控每个业务请求的完成链路,这个包括对上游和下游的链路日志,也包括在当前业务中各个模块的日志记录。
对于微服务架构,链路监控是非常重要的。服务与服务间的链路需要通过一个 trace 进行串联。
关于链路监控,已经有很多开源成熟方案可以部署,大都都是基于 Dapper 理论进行实现的。
错误监控
业务中不仅仅只有正常流程的逻辑,也有很多各种各样的错误分支逻辑。对于这些务请求中非正常的错误信息。往往是很有用的。特别是能弥补测试人员没有测试到的一些分支异常。
错误信息必须要保留的应该有错误请求体、错误堆栈、错误触发条件等信息。
监控的数据源
关于监控的数据源,无非就分为两类:日志 和 metric(统计)
日志数据源比metric数据源的优势是能有更强大的数据结构,可以进行更为复杂的日志搜索,可以存储更多的信息。缺点则是存储量比metric数据大很多,在大流量业务场景下,很难做到全量采集。很经常采用的是抽样采集记录。这里面就有一个抽样采集策略。
另一方面 metric 数据源理论上比日志数据源有更强的实时性。也可以通过各种环比来得出趋势的变化。
日志又分为几个类型的日志
- 错误日志:记录错误信息
- 运行日志:记录内部运行和数据流转的各种日志记录
- 访问日志:记录请求进出服务的访问入口日志
如何衡量监控系统的完整性?
摘抄自 Google SRE:
监控系统的衡量指标:
- 速度:需要保证数据的新鲜度和数据获取速度。需要很快获取到最新的数据指标。
- 计算:对数据进行计算可以支持各种复杂的查询需求。
- 接口:既有精确的图表展示,又提供开放的接口查询。
- 告警:灵活的告警系统,可以消除不必要的噪音。
总结
感觉基本每个公司差不多都是这些思路,只是在每个具体实现上,可能会针对不同的业务进行不同的定制化。
基本上从不同层面,不同数据源,对某个服务搭建起来完整的监控链路,这个服务的可用性就能得到很好的保证了。
实时了解作者更多技术文章,技术心得,请关注微信公众号“轩脉刃的刀光剑影”
本文基于署名-非商业性使用 3.0许可协议发布,欢迎转载,演绎,但是必须保留本文的署名叶剑峰(包含链接http://www.cnblogs.com/yjf512/),且不得用于商业目的。如您有任何疑问或者授权方面的协商,请与我联系。