linux性能调优总结
系统性能一直是个热门话题。做运维这几年也一直在搞性能调优,写这个文章也算是对工作的总结。
讲调优第一步是,要讲为什么要调优?也就是系统分析,分析还需要有指标,做好性能监控的情况下,看到确实需要调优才能进行。不能为了调优而 “调优“ 那不是调优,那是破坏。
性能分析的目的
- 找出系统性能瓶颈
- 为以后的优化提供方案或者参考
- 达到良好利用资源的目的。硬件资源和软件配置。
影响性能的因素
想确定有哪些因素,首先确定你的应用是什么类型的?
例如:
- cpu密集型
例如web服务器像nginx node.js需要CPU进行批处理和数学计算都属于此类型 - io密集型
例如数据库常见的mysql,大量消耗内存和存储系统,对CPU和网络要求不高,这种应用使用CPU来发起IO请求,然后进入sleep状态。
确定了应用类型就开始分析有哪些情况能影响性能:
- 大量的网页请求会填满运行队列、大量的上下文切换,中断
- 大量的磁盘些请求
- 网卡大量的吞吐
- 以及内存耗尽等。。
归结起来就是4个方面
- cpu
- memory
- i/o
- network
系统检测的工具
我们知道了这四大块影响着我们的性能,那我们有什么工具进行检测呢?
上图时某国外大神总结的。
我个人在工作中常用到的有:
htop vmstat iotop sar strace iftop ss lsof ethtool mtr等
另外推荐阿里的tsar以及glances进行系统性能监控。
CPU 性能监控以及调优
我们可以 通过检查cpu使用量,通过工具观测上下文切换、中断以及代码调用等方面来进行优化。
首先明确几个术语:
缓存:为了提供内存i/o性能cpu提供硬件级缓存。查看缓存可以用过 lscpu -p命令来查看
# lscpu
L1d cache: 32K
L1i cache: 32K
L2 cache: 256K
L3 cache: 8192K
1级缓存为静态缓存,分为数据缓存和指令缓存。
2级和3级缓存为动态缓存,其中2级缓存为共享缓存。
为了提高cpu缓存命中率我们通常的做法是把cpu绑定在某一个核上,也就是”cpu亲和性”
linux下我们可以通过”taskset”命令来实现
# taskset -pc 0 73890
pid 73890's current affinity list: 0
pid 73890's new affinity list: 0
但是这样还是有问题。例如不能保证本地内存分配,所以这时候我们需要使用numa来解决问题
NUMA:非一致性内存访问机制。每个屋里核心都有一段自己使用的内存成为本地节点,都有自己的内存控制器,距离最近的内存节点成称为邻均节点。
上图为numa的简单的拓扑,来源于互联网。
numactl可以将程序绑定到特定的numa节点
# numactl --show #查看当前的numa配置
policy: default
preferred node: current
physcpubind: 0
cpubind: 0
nodebind: 0
membind: 0
注:数据库服务器不要用numa,如果要使用请在数据库启动请使用numactl —interleave=all。作为运维可能都被坑过。
cpu调度策略
- 实时调度策略
- SCHED_FIFO 静态调度策略,一旦占用cpu则一直运行,一直运行直到有更高优先级任务到达或自己放弃。
- SCHED_RR 时间轮询策略,当进程的时间片用完,系统将重新分配时间片,并置于就绪队列尾。放在队列尾保证了所有具有相同优先级的RR任务的调度公平。
实时调度策略作用值为1-99,数字越大优先级越高。
- 一般策略
- SCHED_OTHER 默认调度策略通过nice和counter值决定权值,nice越小,counter越大,被调度的概率越大,也就是曾经使用了cpu最少的进程将会得到优先调度。作用值为100-139,数字越小优先级越高。
- SCHED_BATCH
- SCHED_IDLE
chrt 修改实时优先级,生产中一般不要修改,默认是rr调度
SCHED_OTHER 使用nice、renice修改。
另外other支持动态调整,如果手动直接nice修改即可。
context switches:上下文切换
linux内核将每一个core当作一个独立的处理器。一个内核可以同时运行50~50000个进程。每个线程将会分配一个时间片,直到这个线程的时间片用完,或是被更高优先级的线程抢占,它才会被重新放回cpu队列。切换线程的过程就是context switch。context switch越高,则内核调度的工作负担越大。
vmstat 既可以看到 cs的高低
run queue 运行队列
每个cpu都有一个运行队列。线程,要么在sleep状态(阻塞并等待IO),要么在运行状态。运行队列越长,则等待cpu处理这个线程的时间越长。运行队列是全局的会被所有CPU共享
load就是用来描述运行队列的。它的值等于当前正在处理的线程+运行队列里面的线程。
比如当前系统核数是2,有两个线程正在执行行,还有4个线程在运行队列里面,那么它的load=2+4。
vmstat w uptime 都可以观测运行队列负载情况。
cpu性能监控
说了这么多,那正常情况下需要观察哪些值呢?
首先numa 以及算法都是特殊情况下优化的,一般情况下不会去动这些,需要根据你的业务场景来进行绑定调整,像虚拟化,云计算等可能就需要进行调整。
那么我们日常需要观测的性能点是:
- cpu利用率
- us 60%-70%
- sy 30%-35%
- id 0%-5%
- cs上下文切换
- cs和cpu利用率相关,如果能保持上面所说的利用率大量的切换可以接受
- 运行队列
- 小于等于4最好
例子:
# vmstat 1 5
procs -----------memory---------- ---swap-- -----io---- --system-- -----cpu------
r b swpd free buff cache si so bi bo in cs us sy id wa st
3 0 1150840 271628 260684 5530984 0 0 2 1 0 0 22 4 73 0 0
5 0 1150840 270264 260684 5531032 0 0 0 0 5873 6085 13 13 73 0 0
5 0 1150840 263940 260684 5531040 0 0 0 4 6721 7507 15 13 72 0 0
4 0 1150840 263320 260684 5531068 0 0 0 0 6111 7117 10 13 76 0 0
4 0 1150840 262328 260684 5531072 0 0 0 0 6854 7673 18 13 68 0 0
例子中cpu中断(in)以及上下文切换(cs)都比较高,说明内核不得不来回切换进程,同时in也是比较高说明cpu一直在请求资源。
内存memory
术语
MMU:
CPU是不能与硬盘打交道的,只有数据被载入到内存中才可以被CPU调用。cpu在访问内存的时候需要先像内存监控程序请求,由监控程序控制和分配内存的读写请求,这个监控程序叫做MMU(内存管理单元)
线性地址到物理地址的映射,如果按照1个字节1个字节映射的话,需要一张非常大的表,这种转换关系会非常的复杂。因此把内存空间又划分成了另外一种存储单元格式,通常为4K。
每个进程如果需要访问内存的时候都需要去查找page table的话需要借助缓冲器TLB,但每次产找tlb没有或者大量查找还是会造成缓慢,所以又有了page table的分级目录。page table可以分为1级目录,2级目录和偏移量。
另外让系统管理大量内存有两种方法:
- 增加硬件内存管理单元中页表数
-
增大页面大小
第一种方法不太现实,所有我们考虑第二种方法。即:大页面。
32位系统4m大页框64位系统2m大页框,页框越粗浪费越严重。
查看系统的大页面:cat /proc/meminfo
AnonHugePages: 309248 kB
HugePages_Total: 0
HugePages_Free: 0
HugePages_Rsvd: 0
HugePages_Surp: 0
Hugepagesize: 2048 kB
DirectMap4k: 6144 kB
DirectMap2M: 1042432 kB
DirectMap1G: 0 kB
AnonHugePages:透明大页面,THP是一个提取层,可自动创建、管理和使用超大页面的大多数方面。
另外HP必须在引导时设置。
手动设置大页面的页数:
sysctl vm.nr_hugepages = 20
DMA:直接读取内存
在实现DMA传输时,是由DMA控制器直接掌管总线,因此,存在着一个总线控制权转移问题。即DMA传输前,CPU要把总线控制权交给DMA控制器,而在结束DMA传输后,DMA控制器应立即把总线控制权再交回给CPU。一个完整的DMA传输过程必须经过DMA请求、DMA响应、DMA传输、DMA结束4个步骤。
虚拟内存:
32位的系统上每一个进程在访问内存的时候,每一个进程都当做自己有4个G的内存空间可用,这叫虚拟内存(地址),虚拟内存转化成物理内存是通过MMU来完成的。生产中我们尽量不使用虚拟内存。
影响系统性能的几个内存参数:
- overcommit_memory 过量使用内存
- 0 默认设置系统决定是否过量使用。
- 1 不过量使用
- 2 过量使用但有一定的比例默认百分值五十由overcommit_ratio决定(他就是默认的50),举个例子物理内存8g,swap4g,可以过量使用10g。
注:生产中尽量避免过量使用,例如redis要关闭过量使用。
- spappines
-将不活跃的进程换进swap。注:尽量不去使用swap。
生产中设置:
echp 10 > /proc/sys/vm/swappines - 回收内存
- 这个值设定为 1、2 或者 3 让内核放弃各种页缓存和 slab 缓存的各种组合。
1 系统无效并释放所有页缓冲内存即buffers
2 系统释放所有未使用的 slab 缓冲内存。即cached
3 系统释放所有页缓冲和 slab 缓冲内存。
生产中使用:
1.运行sync
- echo 3>/proc/sys/vm/drop_caches
- 这个值设定为 1、2 或者 3 让内核放弃各种页缓存和 slab 缓存的各种组合。
i/o
IO子系统一般是linux系统中最慢的部分。一个原因是它距离CPU的距离,另一个原因是它的物理结构。因此尽量要减少磁盘IO。
磁盘调度策略:
# cat /sys/block/sda/queue/scheduler
noop anticipatory deadline [cfq]
其中当前使用cfq策略。
cfq:完全公平调度。在其时间片段中,进程每次最多可有八个请求(默
认)。调度程序会尝试根据历史数据估计某个程序是否会在近期发出更多 I/O,然后 CFQ 会闲置,等待那个
I/O,即使有其他进程正在等待发出 I/O
deadline:每一个请求在指定的期限前必须得到服务。
noop:没有策略
anticipatory:已被抛弃,写多读少的场景使用。
linux内核以page为单位访问磁盘IO,一般为4K。
查看page: /usr/bin/time -v date
MPF
linux会将内存物理地址空间映射到虚拟内存,内核仅会映射需要的内存页。当应用启动时,内核依次搜索CPU cache和物理内存,查找是否有相应的内存页,如果不存在,则内核将会发起一次MPF(major page fault),将磁盘中的数据读出并缓存到内存中。
如果在buffer cache找到了对应的内存页,则将会产生一个MnPF(minor page fault).
/usr/bin/time -v helloworld
第一次执行会发现大部分是MPF
第二次执行会发现大部分是MnPF
The File Buffer Cache
file buffer cache用来减少MPF,增加MnPF,它将会持续增长,直到可用内存比较少或是内核需要为其它应用来释放一些内存。free内存比较少,并不能说明系统内存紧张,只能说明linux系统充分使用内存来做cache.
# cat /proc/meminfo
MemTotal: 1004772 kB
MemFree: 79104 kB
Buffers: 105712 kB
将数据页写回磁盘
可以使用fsync()或是sync()立即写回,如果没有直接调用这些函数,pdflush会定期刷回磁盘。
iotop可以显示所有进程的IO占用情况
lsof可以查看所有的调用并打开的文件
其他命令:
vmstat sar iostat top htop等