linux系统调优包括两个文件,一个是limits.conf文件,一个是sysctl.conf文件,这两个文件分别在/etc/secriuty/limits.conf和/etc/sysctl.conf下,具体修改内容如下:

        vi /etc/security/limits.conf
        * soft nproc 11000 #限制最多打开的软件数
        * hard nproc 11000 #限制打开软件的最多进程数
        * soft nofile 655350#限制最多打开的文件数
        * hard nofile 655350#限制最多运行的进程数,一般设置为65535


        #优化TCP
        vi /etc/sysctl.conf
        #禁用包过滤功能
        net.ipv4.ip_forward = 0  
        #启用源路由核查功能
        net.ipv4.conf.default.rp_filter = 1  
        #禁用所有IP源路由
        net.ipv4.conf.default.accept_source_route = 0  
        #使用sysrq组合键是了解系统目前运行情况,为安全起见设为0关闭
        kernel.sysrq = 0  
        #控制core文件的文件名是否添加pid作为扩展
        kernel.core_uses_pid = 1  
        #开启SYN Cookies,当出现SYN等待队列溢出时,启用cookies来处理
        net.ipv4.tcp_syncookies = 1  
        #每个消息队列的大小(单位:字节)限制 重要
        kernel.msgmnb = 65536  
        #整个系统最大消息队列数量限制 重要
        kernel.msgmax = 65536  
        #单个共享内存段的大小(单位:字节)限制,计算公式64G*1024*1024*1024(字节)
        kernel.shmmax = 68719476736  
        #所有内存大小(单位:页,1页 = 4Kb),计算公式16G*1024*1024*1024/4KB(页)
        kernel.shmall = 4294967296  
        #timewait的数量,默认是180000
        net.ipv4.tcp_max_tw_buckets = 6000  
        #开启有选择的应答
        net.ipv4.tcp_sack = 1  
        #支持更大的TCP窗口. 如果TCP窗口最大超过65535(64K), 必须设置该数值为1
        net.ipv4.tcp_window_scaling = 1  
        #TCP读buffer
        net.ipv4.tcp_rmem = 4096 131072 1048576
        #TCP写buffer
        net.ipv4.tcp_wmem = 4096 131072 1048576   
        #为TCP socket预留用于发送缓冲的内存默认值(单位:字节)
        net.core.wmem_default = 8388608
        #为TCP socket预留用于发送缓冲的内存最大值(单位:字节)
        net.core.wmem_max = 16777216  
        #为TCP socket预留用于接收缓冲的内存默认值(单位:字节)  
        net.core.rmem_default = 8388608
        #为TCP socket预留用于接收缓冲的内存最大值(单位:字节)
        net.core.rmem_max = 16777216
        #每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目 重要
        net.core.netdev_max_backlog = 262144  
        #web应用中listen函数的backlog默认会给我们内核参数的net.core.somaxconn限制到128,而nginx定义的                         
        #系统中最多有多少个TCP套接字不被关联到任何一个用户文件句柄上。这个限制仅仅是为了防止简单的DoS攻        
        击,不能过分依靠它或者人为地减小这个值,更应该增加这个值(如果增加了内存之后)
         net.ipv4.tcp_max_orphans = 3276800  
        #记录的那些尚未收到客户端确认信息的连接请求的最大值。对于有128M内存的系统而言,缺省值是1024,小内存 
        的系统则是128
        net.ipv4.tcp_max_syn_backlog = 262144  
        #时间戳可以避免序列号的卷绕。一个1Gbps的链路肯定会遇到以前用过的序列号。时间戳能够让内核接受这种“异 
        常”的数据包。这里需要将其关掉
        net.ipv4.tcp_timestamps = 0  
        #为了打开对端的连接,内核需要发送一个SYN并附带一个回应前面一个SYN的ACK。也就是所谓三次握手中的第 
        二次握手。这个设置决定了内核放弃连接之前发送SYN+ACK包的数量
       net.ipv4.tcp_synack_retries = 1  
       #在内核放弃建立连接之前发送SYN包的数量
        net.ipv4.tcp_syn_retries = 1  
        #开启TCP连接中time_wait sockets的快速回收
        net.ipv4.tcp_tw_recycle = 1  
        #开启TCP连接复用功能,允许将time_wait sockets重新用于新的TCP连接(主要针对time_wait连接)重要
        net.ipv4.tcp_tw_reuse = 1  

        net.ipv4.tcp_fin_timeout = 15  
        #表示当keepalive起用的时候,TCP发送keepalive消息的频度(单位:秒) 重要
        net.ipv4.tcp_keepalive_time = 30  
        #对外连接端口范围
        net.ipv4.ip_local_port_range = 2048 65000
        #表示文件句柄的最大数量
        fs.file-max = 102400


####################################

1. Ulimit配置

操作系统默认只能打开1024个文件,打开的文件超过这个数发现程序会有“too many open files”的错误,1024对于大数据系统来说显然是不够的,如果不设置,基本上整个大数据系统是“不可用的”,根本不能用于生产环境。
配置方法如下:
echo "* soft nofile 128000" >> /etc/security/limits.conf
echo "* hard nofile 128000" >> /etc/security/limits.conf
echo "* soft nproc 128000" >> /etc/security/limits.conf
echo "* hard nproc 128000" >> /etc/security/limits.conf

【修改建议:强烈建议修改,无影响】

2、swap 问题

让系统尽量不使用swap,如果按照默认配置为60,则容易导致内存还够的情况下使用swap,有可能导致jvm的gc回收处于swap的内存,造成一系列超时问题。
不是不能再使用swap,只是尽量不使用swap。

echo "vm.swappiness=1" >> /etc/sysctl.conf
sysctl -p
sysctl -a|grep swappiness

【修改建议:强烈建议修改,无影响】

3、内存映射数量限制问题

如果solr内存映射过多,会超出系统限制的个数65530,导致solr问题。
vi /etc/sysctl.conf
vm.max_map_count=262144
sysctl -p
【修改建议:强烈建议修改,无影响】

4、 监听队列大小

tcp连接的时候 listen监听队列的大小默认为128.
echo " net.core.somaxconn = 32768 " >> /etc/sysctl.conf
sysctl -p
sysctl -a|grep somaxconn
【修改建议: 一般,无影响】

5、透明大页问题

在centos7的系统版本中,透明大页这种本来为提高性能的手段,会系统负载高的时候,造成系统反复重启。
所以建议关闭。

1)查看是否启用:
[root@localhost ~]# cat /sys/kernel/mm/transparent_hugepage/enabled
[always] madvise never

[always]为启动。
2)停止方法:
1、第一种方法:对于centos7来说:【临时修改可以直接用下面两条命令】
更改:/etc/rc.d/rc.local
echo never > /sys/kernel/mm/transparent_hugepage/enabled
echo never > /sys/kernel/mm/transparent_hugepage/defrag
修改权限: chmod +x /etc/rc.d/rc.local

2、第二种方法:
修改 /etc/grub.conf 重启后生效。
添加:transparent_hugepage=never
举个例子:
For example:

title Oracle Linux Server (2.6.32-300.25.1.el6uek.x86_64)
root (hd0,0)
kernel /vmlinuz-2.6.32-300.25.1.el6uek.x86_64 ro root=LABEL=/ transparent_hugepage=never
initrd /initramfs-2.6.32-300.25.1.el6uek.x86_64.img

【修改建议:建议修改,对系统性能有点影响】

6、内存分配策略 overcommit_memory

[root@localhost ~]# cat /proc/sys/vm/overcommit_memory
0
内核参数overcommit_memory 它是 内存分配策略 可选值:0、1、2。
0, 表示内核将检查是否有足够的可用内存供应用进程使用;如果有足够的可用内存,内存申请允许;否则,内存申请失败,并把错误返回给应用进程。
1, 表示内核允许分配所有的物理内存,而不管当前的内存状态如何。
2, 表示内核允许分配超过所有物理内存和交换空间总和的内存
【建议设置为0,目前环境为0 不用修改】

7、NUMA参数问题

numa为一种架构模式,就是内存和cpu组绑定,提升总线通信带宽。
配置不当容易造成明明内存很多,但是却在使用swap问题。

1、查看是否开启NUMA
通过命令: grep -i numa /var/log/dmesg
如果输出:No NUMA configuration found 则没有开启,否则是开启了NUMA
我们主机显示:
[ 3.175740] pci_bus 0000:00: on NUMA node 0
[ 3.180438] pci_bus 0000:10: on NUMA node 1
[ 3.185192] pci_bus 0000:20: on NUMA node 2
[ 3.189191] pci_bus 0000:30: on NUMA node 3
[ 3.191694] pci_bus 0000:40: on NUMA node 4
[ 3.194062] pci_bus 0000:50: on NUMA node 5
[ 3.198240] pci_bus 0000:60: on NUMA node 6
[ 3.200434] pci_bus 0000:70: on NUMA node 7

表明开启了NUMA。

2、查看分配策略
cat /proc/sys/vm/zone_reclaim_mode

目前环境为0 ,建议为0 不用修改。
当某个节点可用内存不足时:
1、如果为0的话,那么系统会倾向于从其他节点分配内存
2、如果为1的话,那么系统会倾向于从本地节点回收Cache内存多数时候

8、时钟同步

建议使用 chronyc 进行时钟同步,目前已经做了。

9、关闭SELINUX

1)查看:
/etc/selinux/config
2)修改
setenforce 0
sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/config

10、禁用IPV6

echo -e "NETWORKING_IPV6=no" >> /etc/sysconfig/network
echo -e "alias net-pf-10 off\noptions ipv6 disable=1" > /etc/modprobe.d/disable_ipv6.conf
service network restart







内核调优参数

net.ipv4.ip_forward = 1
net.ipv4.tcp_syncookies = 1
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_tw_recycle = 1
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.ipv4.tcp_rmem = 4096 87380 16777216
net.ipv4.tcp_wmem = 4096 65536 16777216
net.ipv4.tcp_fin_timeout = 10
net.ipv4.tcp_timestamps = 0
net.ipv4.tcp_window_scaling = 0
net.ipv4.tcp_sack = 0
net.core.netdev_max_backlog = 30000
net.ipv4.tcp_no_metrics_save = 1
net.ipv4.tcp_max_orphans = 262144
net.ipv4.tcp_max_syn_backlog = 262144
net.ipv4.tcp_synack_retries = 2
net.ipv4.tcp_syn_retries = 2
fs.inotify.max_user_instances = 655350
fs.inotify.max_user_watches = 655350

######内核内存优化#################

vm.dirty_background_bytes=0
vm.dirty_background_ratio=10
vm.dirty_bytes=0
vm.dirty_ratio=20
vm.dirty_expire_centisecs=3000
vm.dirty_writeback_centisecs=500
vm.swappiness=60
vm.vfs_cache_pressure=100