浏览器中的网络:31 | HTTP/3:甩掉 TCP、TLS 的包袱,构建高效网络

前言:该篇说明:请见 说明 —— 浏览器工作原理与实践 目录

 

  前面两篇文章分析了 HTTP/1 和 HTTP/2 ,在 HTTP/2 出现之前,开发者需要采取很多变通的方式来解决 HTTP/1 所存在的问题,不过 HTTP/2 在 2018 年就开始得到了大规模的应用,HTTP/1 中存在的一大堆缺陷都得到了解决。

 

  HTTP/2 的一个核心特性是使用了多路复用技术,因此它可以通过一个 TCP 连接来发送多个 URL 请求。多路复用技术能充分利用宽带,最大限度规避了TCP的慢启动所带来的的问题,同时还实现了头部压缩、服务器推送等功能,使得页面资源的传输速度得到了大幅提升。在 HTTP/1.1 时代,为了提升并行下载效率,浏览器为每个域名维护了 6 个 TCP连接;而采用 HTTP/2 后,浏览器只需要为每个域名维护 1 个 TCP 持久连接,同时还解决了 HTTP/1.1对头阻塞的问题。

 

  从目前的情况来看,HTTP/2 似乎可以完美取代 HTTP/1 了,不过 HTTP/2 依然存在一些缺陷,于是就有了 HTTP/3 。和通常一样,介绍 HTTP/3 之前,先来看看 HTTP/2 到底有什么缺陷。

 

TCP 的队头阻塞

  虽然 HTTP/2 解决了应用层面的队头阻塞问题,不过和 HTTP/1.1 一样,HTTP/2 依然是基于 TCP 协议的,而 TCP 最初就是为了单连接而设计的。你可以把 TCP 连接看成是两台计算机之前的一个虚拟管道,计算机的一端将要传输的数据按照顺序放入管道,最终数据会以相同的顺序出现在管道的另一头。

 

  接下来就来分析下 HTTP/1.1 协议栈中 TCP 是如何传输数据的。为直观理解,可以参考下图:

正常情况下的 TCP 传输数据过程

 

  通过上图能发现,从一端发送给另一端的数据会被拆分为一个个按照顺序排列的数据包,这些数据包通过网络传输到接收端,接收端再按照顺序将这些数据包组合成原始数据,这样就完成了数据传输。

 

  不过如果在数据传输的过程中,有一个数据因为网络故障或其他原因而丢包了,那么整个 TCP 的连接就会处于暂停状态这是TCP 的可靠之处,但也是它的劣势)需要等待丢失的数据包被重新传输过来。你可以把 TCP 连接看成是一个按照顺序传输数据的管道,管道中的任一个数据丢失了,那之后的数据都需要等待该数据的重新传输。为了直观理解,可以参考下图:

TCP 丢包

  在TCP 传输过程中,由于单个数据包的丢失而造成的阻塞称为 TCP 上的队头阻塞。

  

  那队头阻塞是如何影响 HTTP/2 传输的呢?首先来看正常情况下 HTTP/2 是如何传输多路请求的。为了直观理解,参考下图:

HTTP/2 多路复用

  通过该图,知道在 HTTP/2中,多个请求是跑在一个 TCP 管道中的,如果其中任一路数据流中出现了丢包的情况,那么就会阻塞该 TCP 连接中的所有请求。这不同于 HTTP/1.1,使用 HTTP/1.1 时,浏览器为每个域名开启了 6 个 TCP 连接,如果其中的一个 TCP 连接发生了队头阻塞,那么其他的 5 个 连接依然可以继续传输数据。(HTTP/2 解决了 HTTP/1.1 请求层面的队头阻塞问题,但仍然存在TCP队头阻塞的问题)

  

  所以随着丢包率的增加,HTTP/2 的传输效率也会越来越差。有测试数据表明,当系统达到了 2% 的丢包率时,HTTP/1.1 的传输效率反而比 HTTP/2 表现得更好。(所以存在丢包的情况下,HTTP/2虽然只是一个 TCP 连接,减少了慢启动的时间和带宽的竞争,但是也会导致一旦丢包,整个TCP 连接都会阻塞,所有的数据都要重新请求。)

 

TCP 建立连接的延时

  除了 TCP 队头阻塞之外,TCP 的握手过程也是影响传输效率的一个重要因素。

 

  为了搞清楚 TCP 协议建立连接的延迟问题,还是先来回顾下网络延迟的概念,这有助于对后面内容的理解。网络延迟又称为 RTT(Round Trip Time)。把从浏览器发送一个数据包到服务器,再从服务器返回数据包到浏览器的整个往返时间称为 RTT(如下图)。RTT 是反映网络性能的一个重要指标。

网络延时

  那建立 TCP 连接时,需要花费多少个 RTT ?下面来计算下。

 

  我们知道 HTTP/1 、HTTP/2 都是使用 TCP 协议来传输的,而如果使用 HTTPS 的话,还需要使用 TLS 协议进行安全传输,而使用 TLS 也需要一个握手过程,这样就需要有两个握手延迟过程。

  1、在建立TCP 连接的时候,需要和服务器进行三次握手来确认连接成功,也就说需要在消耗完 1.5 个 RTT 之后才能进行数据传输。(注:单边发送一个包所用时间为半个RTT,一来一回才是一个 RTT,所以从浏览器到服务器 + 服务器到浏览器这种一来一回才是 1个 RTT)

  2、进行 TLS 连接,TLS 有两个版本——TLS1.2 和 TLS 1.3,每个连接建立所花的时间不同,大致是需要 1~2 个RTT,关于 HTTPS 后面到安全模块再做详细介绍。

  总之,在传输数据之前,我们需要花掉 3~4个 RTT。如果浏览器和服务器的物理距离较近,那么 1 个 RTT 的时间可能在 10 毫秒以内,也就是说总共要耗掉 30~40毫秒。这个时间也许用户还可以接受,但如果服务器相隔较远,那么 1 个 RTT 就可能需要 100 毫秒以上了,这种情况下整个握手过程需要 300~400 毫秒,这是用户就能明显地感受到“慢”了。

 

TCP 协议僵化

  现在知道了 TCP 协议存在对头阻塞和建立连接延迟等缺点,那是不是可以通过改进 TCP 协议来解决这些问题呢?

  答案是:非常困难。之所以这样,主要有两个原因:

  1、中间设备的僵化。要搞清楚什么是中间设备僵化,就先要弄明白什么是中间设备。我们知道互联网是由多个网络互联的网状结构,为了能够保障互联网的正常工作,需要在互联网的各处搭建各种设备,这些设备就被称为中间设备。

   这些中间设备有很多种类型,并且每种设备都有自己的目的,这些设备包括了路由器、防火墙、NAT(网络地址转换)、交换机等。它们通常依赖一些很少升级的软件,这些软件使用了大量的 TCP 特性,这些功能被设置之后就很少更新了。

   所以在客户端升级了 TCP 协议,但当新协议的数据包经过这些中间设备时,它们可能不理解包的内容,于是这些数据就会被丢弃掉。这就是中间设备僵化,它是阻碍 TCP 更新的一大障碍。

  2、操作系统。因为 TCP 协议都是通过操作系统内核来实现的,应用程序只能使用不能修改。通常操作系统的更新都滞后于软件的更新,因此要想自由地更新内核中的 TCP 协议而是非常困难的。

 

QUIC 协议

  HTTP/2 存在一些比较严重的与 TCP 协议相关的缺陷,但由于 TCP 协议僵化,几乎不可能通过修改 TCP 协议自身来解决这些问题,那么解决问题的思路是绕过 TCP 协议,发明一个TCP 和 UDP 之外的新的传输协议。但这也面临着和修改 TCP 一样的问题,因为中间设备的僵化,这些设备只认 TCP 和 UDP,如果采用了新的协议,新协议在这些设备同样不被很好地支持。

 

  因此 HTTP/3 选择了一个折中的办法——UDP 协议,基于 UDP 实现了类似于 TCP 的多路数据流、传输可靠性等功能,我们把这套功能称为 QUIC 协议

  关于 HTTP/2 和 HTTP/3 协议栈的比较如下:

HTTP/2 和 HTTP/3 协议栈

  通过上图可以看出,HTTP/3 中的 QUIC 协议集合了以下几个功能:

  1、实现了类似 TCP 的流量控制、传输可靠性的功能。虽然 UDP 不提供可靠性的传输,但 QUIC 在 UDP 的基础上增加了一层来保证数据可靠性传输。它提供了数据包重传,拥塞控制以及其他一些 TCP 中存在的特性。

  2、集成了 TLS 加密功能。目前 QUIC 使用的是 TLS 1.3,相较于早期版本 TLS 1.3 有更多的优点,其中最重要的一点是减少了握手所花费的 RTT 个数。

  3、实现了 HTTP/2 中的多路复用功能。和 TCP 不同,QUIC 实现了在同一物理连接上可以有多个独立的逻辑数据流(如下图)。实现了数据流的单独传输,就解决了 TCP 中队头阻塞的问题。

QUIC 协议的多路复用

  4、实现了快速握手功能。由于 QUIC 是基于 UDP 的,所以 QUIC 可以实现使用 0-RTT 或者 1-RTT 来建立连接,这意味着 QUIC 可以用最快的速度来发送和接收数据,这样大大提升了首次打开页面的速度。

 

HTTP/3 的挑战

  通过上面的分析,相信在技术层面,HTTP/3 是个完美的协议。不过要将 HTTP/3 应用到实际环境中依然面临着诸多严峻的挑战,这些挑战主要来自于以下三个方面:

1、从目前的情况看,服务器和浏览器端都没有对 HTTP/3 提供比较完整的支持。Chrome 虽然在数年前就开始支持 Google 版本的 QUIC ,但这个版本的QUIC 和官方的 QUIC 存在着非常大的差异。

2、部署 HTTP/3 也存在着非常大的问题。因为系统内核对 UDP 的优化远远没有达到 TCP 的优化程度,这也是阻塞 QUIC 的一个重要原因。

3、中间设备的僵化问题。这些设备对 UDP 的优化程度远远低于 TCP,据统计使用 QUIC 协议时,大约有 3%~7%的丢包率。

 

总结

  首先分析了 HTTP/2 中所存在的一些问题,主要包括了 TCP 的队头阻塞、建立 TCP 连接的延时、TCP 协议僵化等问题。

  这些问题都是 TCP 的内部问题,因此要解决这些问题就要优化 TCP 或者“另起炉灶”创造新的协议。由于优化 TCP 协议存在着诸多挑战,所以官方选择了创建新的 QUIC 协议。

 

  HTTP/3 正是基于 QUIC 协议的,可以把 QUIC 看成是集成了 “TCP + HTTP/2的多路复用+TLS等功能”的一套协议。这是集众家所长的一个协议,从协议最底层对 Web 的文件传输做了比较彻底的优化,所以等生态相对成熟时,可以用来打造比现在的 HTTP/2 还更加高效的网络。

 

  虽说这套协议解决了 HTTP/2 中因 TCP 所带来的问题,不过由于是改动了底层协议,所以推广起来还会面临着巨大的挑战。

 

  关于 HTTP/3 的未来,有下面两点判断:

  1、从标准制定到实践再到协议优化还需要走很长一段路;

  2、因为动了底层协议,所以 HTTP/3 的增长会比较缓慢,这和 HTTP/2 有着本质的区别。

 

思考时间

HTTP/3 都做了哪些性能上的改进?所面临的挑战又是什么?

 

 记录

1、HTTP/3 核心是要解决 TCP 数据包丢包严重时带来的性能问题。基于 UDP,添加一个 QUIC 层,实现 TCP 所拥有的优点,流量控制,拥塞控制,数据包重传等特性;集成 TLS 加密,能更快的握手,支持多路复用,一个连接传送多路数据,缩短握手时间。

 

 2、TLS 1.3已经花了一个 RTT ,QUIC 包含了 TLS 1.3,为何说它建立连接只花了 0-1 个 RTT?

UDP 不需要连接,另外 TLS 1.3 最快可以达到 0 RTT

 

 3、UDP 有慢启动的问题吗?

慢启动主要是由于 TCP 的拥塞控制机制导致的,因为 UDP 没有拥塞控制机制,所以自然就没有慢启动这个问题。

 

4、老师你好,你在上一节说 HTTP/2 通过多路复用解决队头阻塞,我不是很明白,既然 HTTP2 还是基于 TCP 协议,并且只有一条 TCP 链接,那么一旦出现丢包的情况,不是效率比HTTP1.1 还差吗?(至少HTTP1.1 支持六条TCP链接),如果HTTP2 只是为了解决慢启动的问题而将 HTTP1.1 的六条链接合成一条,会不会有种丢西瓜捡芝麻的感觉?

你的观点是http2 一个域名只使用一个 TCP 连接的做法是捡了芝麻丢了西瓜。但实际上升级到 HTTP2 在性能表现上比 HTTP 1.1 要高出 20%到60%,只有当丢包率达到2% 以上时,才会出现弱于 HTTP1.1 的情况,而不是一旦丢包就会表现的非常差。

posted on 2022-03-04 16:38  bala001  阅读(325)  评论(0编辑  收藏  举报

导航