kernel中socket buffer相关参数
1) 简介
内核参数会影响收发包性能,尤其是在发包比较快的网卡上,往往需要修改内核参数以提高性能。内核中有很多个buffer相关的参数,下面根据文档解释下各个参数作用。
参考文档:
http://man7.org/linux/man-pages/man7/udp.7.html
http://man7.org/linux/man-pages/man7/tcp.7.html
http://man7.org/linux/man-pages/man7/socket.7.html
2) 测试情况
Socket上有个SO_RCVBUF和SO_RCVBUF两个参数,可以通过修改这两个参数增大单个socket的缓冲区。
通过测试发现,UDP中SO_RCVBUF与内核中/proc/sys/net/core/rmem_default对应,SO_SNDBUF与/proc/sys/net/core/wmem_default对应。
而TCP中SO_RCVBUF与内核中/proc/sys/net/ipv4/tcp_rmem 的第二项default对应,SO_SNDBUF与/proc/sys/net/ipv4/tcp_wmem的第二项default对应。
以下是内核buffer相关参数解释:
内核参数 |
含义 |
|
net.core.rmem_default |
内核给单个socket分配的默认读buffer大小 |
|
net.core.rmem_max |
所有socket的读buffer不能超过这个值 |
|
net.core.wmem_default |
内核给单个socket分配的默认写buffer大小 |
|
net.core.wmem_max |
所有socket的写buffer不能超过这个值 |
|
net.ipv4.tcp_mem |
low |
如果全部tcp socket分配的内存少于这个值,不会调整内存 |
pressure |
如果全部tcp socket分配的内存超过这个值,内核将调整每个tcp socket的内存 |
|
high |
全部tcp socket分配的内存不超过这个值,这个值覆盖其他限制 |
|
net.ipv4.tcp_rmem |
min |
当所有tcp socket使用内存紧张时,内核保证至少给每个tcp socket的读buffer分配这个值的内存大小 |
default |
每个tcp socket默认读buffer缓冲区,会覆盖net.core.rmem_default |
|
max |
所有tcp socket读buffer总大小上限,不会覆盖net.core.rmem_max |
|
net.ipv4.tcp_wmem |
min |
当所有tcp socket使用内存紧张时,内核保证至少给每个tcp socket的写buffer分配这个值的内存大小 |
default |
每个tcp socket默认写buffer缓冲区,会覆盖net.core.wmem_default |
|
max |
所有tcp socket写buffer总大小上限,不会覆盖net.core.wmem_max |
|
net.ipv4.udp_mem |
low |
如果全部udp socket分配的内存少于这个值,不会调整内存 |
pressure |
如果全部udp socket分配的内存超过这个值,内核将调整每个udp socket的内存 |
|
high |
全部udp socket分配的内存不超过这个值,这个值覆盖其他限制 |
|
net.ipv4.udp_rmen_min |
当所有udp socket使用内存紧张时,内核保证至少给每个udp socket的读buffer分配这个值的内存大小 |
|
net.ipv4.udp_wmen_min |
当所有udp socket使用内存紧张时,内核保证至少给每个udp socket的写buffer分配这个值的内存大小 |
3) 疑问
net.core.rmem_max和net.core.wmem_max有没有分TCP和UDP?
net.ipv4.tcp_rmem中max都被net.core.rmem_max覆盖了,那么他的作用又是什么?