TCP 连接数
2、https://blog.csdn.net/chenlycly/article/details/76383198
4、https://blog.csdn.net/wqfhenanxc/article/details/82971556
5\http://www.mamicode.com/info-detail-1665739.html
6、https://www.cnblogs.com/dslx/p/10698673.html
7、https://www.cnblogs.com/jiangzhaowei/p/7998515.html
8、https://www.cnblogs.com/wangyufu/p/6593627.html
9、https://www.cnblogs.com/EasonJim/p/8098532.html
一、原理
tcp 3次握手和4次断开的报文梳理
首先示例图来说明下tcp的连接/数据传输/断开的过程:
百度百科解释TCP三次握手过程如下:
第一次握手:建立连接时,客户端发送syn包(syn=j)到服务器,并进入SYN SENT状态,等待服务器确认;SYN:即是同步序列编号(Synchronize Sequence Numbers);
第二次握手:服务器收到syn包,必须确认客户的SYN(ack=j+1),同时自己也发送一个SYN包(syn=k),即SYN+ACK包,此时服务器进入SYN RECV状态;
第三次握手:客户端收到服务器的SYN+ACK包,向服务器发送确认包ACK(ack=k+1),此包发送完毕,客户端和服务器进入ESTABLISHED(TCP连接成功)状态,完成三次握手。
二、常用知识点
1、优化 tcp 的系统参数
可以 在 /etc/sysctl.conf 中增加和修改。 然后通过 sysctl -p 生效。
配置项 | 说明 |
net.core.netdev_max_backlog = 400000 | #该参数决定了,网络设备接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目。 |
net.core.optmem_max = 10000000 | #该参数指定了每个套接字所允许的最大缓冲区的大小 |
net.core.rmem_default = 10000000 | #指定了接收套接字缓冲区大小的缺省值(以字节为单位) |
net.core.rmem_max = 10000000 | #指定了接收套接字缓冲区大小的最大值(以字节为单位) |
net.core.somaxconn = 100000 | #Linux kernel参数,表示socket监听的backlog(监听队列)上限 |
net.core.wmem_default = 11059200 | #定义默认的发送窗口大小;对于更大的 BDP 来说,这个大小也应该更大。 |
net.core.wmem_max = 11059200 | #定义发送窗口的最大大小;对于更大的 BDP 来说,这个大小也应该更大。 |
net.ipv4.conf.all.rp_filter = 1 net.ipv4.conf.default.rp_filter = 1 |
#严谨模式 1 (推荐) #松散模式 0 |
net.ipv4.tcp_congestion_control = bic | #默认推荐设置是 htcp |
net.ipv4.tcp_window_scaling = 0 | #关闭tcp_window_scaling #启用 RFC 1323 定义的 window scaling;要支持超过 64KB 的窗口,必须启用该值 |
net.ipv4.tcp_ecn = 0 | #把TCP的直接拥塞通告(tcp_ecn)关掉 |
net.ipv4.tcp_sack = 1 | #关闭tcp_sack #启用有选择的应答(Selective Acknowledgment), #这可以通过有选择地应答乱序接收到的报文来提高性能(这样可以让发送者只发送丢失的报文段); #(对于广域网通信来说)这个选项应该启用,但是这会增加对 CPU 的占用。 |
net.ipv4.tcp_max_tw_buckets = 10000 | #表示系统同时保持TIME_WAIT套接字的最大数量 |
net.ipv4.tcp_max_syn_backlog = 8192 | #表示SYN队列长度,默认1024,改成8192,可以容纳更多等待连接的网络连接数。 |
net.ipv4.tcp_syncookies = 1 | #表示开启SYN Cookies。当出现SYN等待队列溢出时,启用cookies来处理,可防范少量SYN攻击,默认为0,表示关闭; |
net.ipv4.tcp_timestamps = 1 | #开启TCP时间戳 #以一种比重发超时更精确的方法(请参阅 RFC 1323)来启用对 RTT 的计算;为了实现更好的性能应该启用这个选项。 |
net.ipv4.tcp_tw_reuse = 1 | #表示开启重用。允许将TIME-WAIT sockets重新用于新的TCP连接,默认为0,表示关闭; |
net.ipv4.tcp_tw_recycle = 1 | #表示开启TCP连接中TIME-WAIT sockets的快速回收,默认为0,表示关闭 |
net.ipv4.tcp_fin_timeout = 10 | #表示如果套接字由本端要求关闭,这个参数决定了它保持在FIN-WAIT-2状态的时间 |
net.ipv4.tcp_keepalive_time = 1800 | #表示当keepalive起用的时候,TCP发送keepalive消息的频度。缺省是2小时,改为30分钟 |
net.ipv4.tcp_keepalive_probes = 3 | #如果对方不予应答,探测包的发送次数 |
net.ipv4.tcp_keepalive_intvl = 15 | #keepalive探测包的发送间隔 |
net.ipv4.tcp_mem | #确定 TCP 栈应该如何反映内存使用;每个值的单位都是内存页(通常是 4KB)。 #第一个值是内存使用的下限。 #第二个值是内存压力模式开始对缓冲区使用应用压力的上限。 #第三个值是内存上限。在这个层次上可以将报文丢弃,从而减少对内存的使用。对于较大的 BDP 可以增大这些值(但是要记住,其单位是内存页,而不是字节)。 |
net.ipv4.tcp_rmem | #与 tcp_wmem 类似,不过它表示的是为自动调优所使用的接收缓冲区的值。 |
net.ipv4.tcp_wmem = 30000000 30000000 30000000 | #为自动调优定义每个 socket 使用的内存。 #第一个值是为 socket 的发送缓冲区分配的最少字节数。 #第二个值是默认值(该值会被 wmem_default 覆盖),缓冲区在系统负载不重的情况下可以增长到这个值。 #第三个值是发送缓冲区空间的最大字节数(该值会被 wmem_max 覆盖)。 |
net.ipv4.ip_local_port_range = 1024 65000 | #表示用于向外连接的端口范围。缺省情况下很小:32768到61000,改为1024到65000。 |
net.ipv4.netfilter.ip_conntrack_max=204800 | #设置系统对最大跟踪的TCP连接数的限制 |
net.ipv4.tcp_slow_start_after_idle = 0 | #关闭tcp的连接传输的慢启动,即先休止一段时间,再初始化拥塞窗口。 |
net.ipv4.route.gc_timeout = 100 | #路由缓存刷新频率,当一个路由失败后多长时间跳到另一个路由,默认是300。 |
net.ipv4.tcp_syn_retries = 1 | #在内核放弃建立连接之前发送SYN包的数量。 |
net.ipv4.icmp_echo_ignore_broadcasts = 1 | # 避免放大攻击 |
net.ipv4.icmp_ignore_bogus_error_responses = 1 | # 开启恶意icmp错误消息保护 |
net.inet.udp.checksum=1 | #防止不正确的udp包的攻击 |
net.ipv4.conf.default.accept_source_route = 0 | #是否接受含有源路由信息的ip包。参数值为布尔值,1表示接受,0表示不接受。 #在充当网关的linux主机上缺省值为1,在一般的linux主机上缺省值为0。 #从安全性角度出发,建议你关闭该功能。 |
1) 若发现系统存在大量 TIME_WAIT 状态的连接,通过调整内核参数解决
在 /etc/sysctl.conf 文件中加入如下配置:
net.ipv4.tcp_syncookies = 1 net.ipv4.tcp_tw_reuse = 1 net.ipv4.tcp_tw_recycle = 1 net.ipv4.tcp_fin_timeout = 30
然后执行 sysctl -p
2) 客户端与服务器端建立TCP/IP连接后关闭SOCKET后,服务器端连接的端口状态为TIME_WAIT是不是所有执行主动关闭的socket都会进入TIME_WAIT状态呢?有没有什么情况使主动关闭的socket直接进入CLOSED状态呢?
主动关闭的一方在发送最后一个ack后,就会进入TIME_WAIT状态停留2MSL(max segment lifetime)时间,这个是TCP/IP必不可少的,也就是“解决”不了的。也就是TCP/IP设计者本来是这么设计的。
主要有两个原因:
- 1、防止上一次连接中的包,迷路后重新出现,影响新连接(经过2MSL,上一次连接中所有的重复包都会消失)
- 2、可靠的关闭TCP连接在主动关闭方发送的最后一个 ack(fin) ,有可能丢失,这时被动方会重新发fin, 如果这时主动方处于CLOSED状态 ,就会响应rst而不是ack。所以主动方要处于TIME_WAIT状态,而不能是CLOSED 。TIME_WAIT并不会占用很大资源的,除非受到攻击。还有,如果一方 send 或 recv 超时,就会直接进入 CLOSED 状态。
2、查看系统的 tcp 连接情况
netstat -an|awk '/^tcp/{++S[$NF]}END{for (a in S)print a,S[a]}' //统计不同tcp 状态下的连接总数
在返回的 tcp 状态表达意思如下:
tcp 状态 | 说明 |
LISTEN | 侦听来自远方的TCP端口的连接请求 |
SYN-SENT | 再发送连接请求后等待匹配的连接请求 |
SYN-RECEIVED | 再收到和发送一个连接请求后等待对方对连接请求的确认 |
ESTABLISHED | 代表一个打开的连接 |
FIN-WAIT-1 | 等待远程TCP连接中断请求,或先前的连接中断请求的确认 |
FIN-WAIT-2 | 从远程TCP等待连接中断请求 |
CLOSE-WAIT | 等待从本地用户发来的连接中断请求 |
CLOSING | 等待远程TCP对连接中断的确认 |
LAST-ACK | 等待原来的发向远程TCP的连接中断请求的确认 |
TIME-WAIT | 等待足够的时间以确保远程TCP接收到连接中断请求的确认 |
CLOSED | 没有任何连接状态 |
参考:
https://www.cnblogs.com/andrew-303/p/12175846.html 查看tcp相关参数配置方法