粘包问题
只有TCP有粘包现象,UDP永远不会粘包
什么是粘包
TCP协议是面向流的协议,接收方不知道消息的界限,不知道一次提取多少数据造成的。TCP发送数据,会用一个Nagle算法进行优化传输,(类似于系统会等一段时间,或者等数据达到一定量后,统一一次发送,这样就造成了粘包)。
1 TCP(transport control protocol,传输控制协议)是面向连接的,面向流的,提供高可靠性服务。
收发两端(客户端和服务器端)都要有一一成对的socket,因此,发送端为了将多个发往接收端的包,更有效的发到对方,
使用了优化方法(Nagle算法),将多次间隔较小且数据量小的数据,合并成一个大的数据块,然后进行封包。
这样,接收端,就难于分辨出来了,必须提供科学的拆包机制。 即面向流的通信是无消息保护边界的。
1 | UDP(user datagram protocol,用户数据报协议)是无连接的,面向消息的,提供高效率服务。不会使用块的合并优化算法,<br> 由于UDP支持的是一对多的模式,所以接收端的skbuff(套接字缓冲区)采用了链式结构来记录每一个到达的UDP包,在每个UDP包中就有了消息头(消息来源地址,端口等信息),<br>这样,对于接收端来说,就容易进行区分处理了。 即面向消息的通信是有消息保护边界的。 |
1 | tcp是基于数据流的,<strong>于是收发的消息不能为空< / strong>,这就需要在客户端和服务端都添加空消息的处理机制,防止程序卡住,<br>而udp是基于数据报的,即便是你输入的是空内容(直接回车),那也不是空消息,udp协议会帮你封装上消息头 |
粘包案例:
发送的时候优化合并进行发送了

from socket import * ip_port=('127.0.0.1',8080) tcp_socket_server=socket(AF_INET,SOCK_STREAM) tcp_socket_server.bind(ip_port) tcp_socket_server.listen(5) conn,addr=tcp_socket_server.accept() data1=conn.recv(10) data2=conn.recv(10) print('----->',data1.decode('utf-8')) print('----->',data2.decode('utf-8')) conn.close()

#_*_coding:utf-8_*_ import socket BUFSIZE=1024 ip_port=('127.0.0.1',8080) s=socket.socket(socket.AF_INET,socket.SOCK_STREAM) res=s.connect_ex(ip_port) s.send('hello'.encode('utf-8')) s.send('feng'.encode('utf-8'))
结果是:
-----> hellofeng
----->
两次数据粘到一起了。
接收的时候接收的数据小,下次接收还会拿缓存剩余的数据。
调整上面接收数据的大小即可
1 2 | data1 = conn.recv( 2 ) data2 = conn.recv( 100 ) |
结果是:
1 2 | - - - - - > he - - - - - > llo |
也可能是
1 2 | - - - - - > he - - - - - > llofeng |
解决粘包的方法
为字节流加上自定义固定长度报头,报头中包含字节流长度,然后一次send到对端,对端在接收时,先从缓存中取出定长的报头,然后再取真实数据,用到了struct模块
struct模块
例子1:
1 2 3 4 5 6 7 8 | import struct a = 12.34 #将a变为二进制 b = struct.pack( 'f' ,a) c = struct.unpack( 'f' ,b) print (a) print (b) print (c) |
结果是:
1 2 3 | 12.34 b '\xa4pEA' ( 12.34000015258789 ,) |
看来f不靠谱,还得是d
fmt转换格式定义如下:
用法其实很简单:
1 2 3 4 5 6 7 8 9 | import struct a = 12.34 b = struct.pack( 'd' ,a) c = struct.unpack( 'd' ,b) print (a) print (b) print (c) |
结果是:
1 2 3 | 12.34 b '\xaeG\xe1z\x14\xae(@' ( 12.34 ,) |
unpack返回的结果是一个元组
再来一个例子:
1 2 3 4 5 6 7 8 9 10 11 | import struct a = 'hello' b = 'world!' c = 2 d = 45.123 e = struct.pack( '5s6sid' ,a.encode( 'utf-8' ),b.encode( 'utf-8' ),c,d) f = struct.unpack( '5s6sid' ,e) print (e) print (f) |
结果是:
1 2 | b 'helloworld!\x00\x02\x00\x00\x009\xb4\xc8v\xbe\x8fF@' (b 'hello' , b 'world!' , 2 , 45.123 ) |
对于字符串还要进行encode转换成bytes才可以,'5s6sif'这个叫做fmt,就是格式化字符串,由数字加字符构成,5s表示占5个字符的字符串,2i,表示2个整数等等
利用buffer,使用pack_into和unpack_from方法
使用二进制打包数据的场景大部分都是对性能要求比较高的使用环境。而在上面提到的pack方法都是对输入数据进行操作后重新创建了一个内存空间用于返回,也就是说我们每次pack都会在内存中分配出相应的内存资源,这有时是一种很大的性能浪费。struct模块还提供了pack_into() 和 unpack_from()的方法用来解决这样的问题,也就是对一个已经提前分配好的buffer进行字节的填充,而不会每次都产生一个新对象对字节进行存储。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 | import struct import binascii import ctypes values1 = ( 1 , 'abc' .encode( 'utf-8' ), 2.7 ) values2 = ( 'defg' .encode( 'utf-8' ), 101 ) s1 = struct.Struct( 'I3sf' ) s2 = struct.Struct( '4sI' ) print (s1.size,s2.size) prebuffer = ctypes.create_string_buffer(s1.size + s2.size) print ( 'Before : ' ,binascii.hexlify(prebuffer)) t = binascii.hexlify( 'asdfaf' .encode( 'utf-8' )) print (t) s1.pack_into(prebuffer, 0 , * values1) s2.pack_into(prebuffer,s1.size, * values2) print ( 'After pack' ,binascii.hexlify(prebuffer)) print (s1.unpack_from(prebuffer, 0 )) print (s2.unpack_from(prebuffer,s1.size)) |
为字节流加上自定义固定长度报头(利用struct模块),报头中包含字节流长度,然后一次send到对端,对端在接收时,先从缓存中取出定长的报头,然后再取真实数据
逻辑如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 | import json,struct #假设通过客户端上传1T:1073741824000的文件a.txt #为避免粘包,必须自定制报头 header = { 'file_size' : 1073741824000 , 'file_name' : '/a/b/c/d/e/a.txt' , 'md5' : '8f6fbf8347faa4924a76856701edb0f3' } #1T数据,文件路径和md5值 #为了该报头能传送,需要序列化并且转为bytes head_bytes = bytes(json.dumps(header),encoding = 'utf-8' ) #序列化并转成bytes,用于传输 #为了让客户端知道报头的长度,用struck将报头长度这个数字转成固定长度:4个字节 head_len_bytes = struct.pack( 'i' , len (head_bytes)) #这4个字节里只包含了一个数字,该数字是报头的长度 #客户端开始发送 conn.send(head_len_bytes) #先发报头的长度,4个bytes conn.send(head_bytes) #再发报头的字节格式 conn.sendall(文件内容) #然后发真实内容的字节格式 #服务端开始接收 head_len_bytes = s.recv( 4 ) #先收报头4个bytes,得到报头长度的字节格式 x = struct.unpack( 'i' ,head_len_bytes)[ 0 ] #提取报头的长度 head_bytes = s.recv(x) #按照报头长度x,收取报头的bytes格式 header = json.loads(json.dumps(header)) #提取报头 #最后根据报头的内容提取真实的数据,比如 real_data_len = s.recv(header[ 'file_size' ]) s.recv(real_data_len) |

#_*_coding:utf-8_*_ import socket,struct,json import subprocess phone=socket.socket(socket.AF_INET,socket.SOCK_STREAM) phone.setsockopt(socket.SOL_SOCKET,socket.SO_REUSEADDR,1) #就是它,在bind前加,socket复用 phone.bind(('127.0.0.1',8080)) phone.listen(5) while True: conn,addr=phone.accept() while True: cmd=conn.recv(1024) if not cmd:break print('cmd: %s' %cmd) res=subprocess.Popen(cmd.decode('utf-8'), shell=True, stdout=subprocess.PIPE, stderr=subprocess.PIPE) err=res.stderr.read() print(err) if err: back_msg=err else: back_msg=res.stdout.read() conn.send(struct.pack('i',len(back_msg))) #先发back_msg的长度 conn.sendall(back_msg) #在发真实的内容 conn.close() phone.close()

import socket,time,struct s=socket.socket(socket.AF_INET,socket.SOCK_STREAM) res=s.connect_ex(('127.0.0.1',8080)) while True: msg=input('>>: ').strip() if len(msg) == 0:continue if msg == 'quit':break s.send(msg.encode('utf-8')) l=s.recv(4) x=struct.unpack('i',l)[0] print(type(x),x) # print(struct.unpack('I',l)) r_s=0 data=b'' while r_s < x: r_d=s.recv(1024) data+=r_d r_s+=len(r_d) # print(data.decode('utf-8')) print(data.decode('gbk')) #windows默认gbk编码
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· 没有Manus邀请码?试试免邀请码的MGX或者开源的OpenManus吧
· 【自荐】一款简洁、开源的在线白板工具 Drawnix
· 园子的第一款AI主题卫衣上架——"HELLO! HOW CAN I ASSIST YOU TODAY
· Docker 太简单,K8s 太复杂?w7panel 让容器管理更轻松!