VPP 总览

FD.io项目介绍

FD.io(Fast data - Input/Output)是Linux基金会旗下的又一开源项目,其成立于2016年2月11日。该项目在通用硬件平台上提供了具有灵活性、可扩展、组件化等特点的高性能IO服务框架,用以迎接下一个网络和存储浪潮。该框架支持高吞吐量、低延迟、高资源利用率的user space IO服务,并可适用于多种硬件架构(x86, ARM, and PowerPC)和部署环境(bare metal, VM, container)。

 

图 开放网络生态系统概要

FD.io开源项目的关键组件是由Cisco捐赠的已商用的VPP(Vector Packet Processing )库,VPP高度模块化,用户可以根据需求实现定制化的服务节点插件。

 

 

 

 

图 FD.io项目架构

VPP和FD.io其他子项目如NSH_ SFC, Honeycomb, and ONE一起加速NFV的data plane。未来的代码贡献将来自开源社区,FD.io的成员期望在各个领域对FD.io进行拓展,例如防火墙、负载均衡、LISP、主机追踪、IDS、硬件加速器集成等。

 

VPP简介

VPP全称Vector Packet Processing,据说是Cisco 2002年开发的商用代码。2016年2月11号,Linux基金会创建FD.io项目。Cisco将VPP代码的开源版本加入该项目,目前已成为该项目的核心。VPP商用版看不到我们暂且不说,单看这个开源版本,个人觉得还是一个初级版本,因为自从关注之后代码更新还是很多,包括bug修复和功能开发。VPP运行于用户空间,支持多种收包方式,我个人关注的是DPDK。

VPP有两个关键特性:

  • 框架可扩展。(确实易扩展)
  • 成熟的交换/路由功能。(不是我说的,官方说的)

VPP技术原理

(https://www.sohu.com/a/134745174_468741)

所谓VPP向量报文处理是与传统的标量报文处理相对而言的。传统报文处理方式,同时也是人类常用的逻辑思维方式,即:报文是按照到达先后顺序来处理,第一个报文处理完,处理第二个,依次类推;A callsB calls C….return return return,函数会频繁嵌套调用,并最终返回。

由此可见,传统标量报文处理有如下缺陷:

1、I-cache 抖动(cache时间局限性和空间局限性特点)

2、I-cache misses

3、除了扩大cache外,没有变更方案。

相比较而言,向量报文处理则是一次处理多个报文,也相当于一次处理一个报文数组packet[n]如下图:

 

 

 

图 向量报文

VPP把一批底层硬件队列Rx ring收到的包,组成一个Packet Vector或者是一组包,借助于报文处理图Packet Processing graph来实现处理流程,图节点graph node把整个过程分解为一个个先后连接的服务node。这一组包(packet vector)被第一个graph node节点的任务处理,然后依次被第二个graph node节点的任务处理,依次类推,如下图所示:

图 报文处理图

由于向量报文中的第一个报文packet-1为I-cache进行了热身,向量报文中剩下报文的处理性能可以直接达到极限,I-cache 缺失的固定开销平摊到了整个向量处理中,使单个报文的处理开销显著降低。

由此可见,向量报文处理解决了标量处理的主要性能缺陷,并有具有如下优点:

1、解决了I-cache抖动问题

2、向量报文进行预取缓解了读时延问题,高性能并且更加稳定

 

扩展性

节点操作

VPP平台是通过graph node串联起来形成一条datapath来处理报文,类似于freebsd的netgraph。通过插件的形式引入新的graph node或者重新排列报文的graph node。将插件添加到插件目录中,运行程序的时候就会自动加载插件。另外插件也可以根据硬件情况通过某个node直接连接硬件进行加速。VPP平台可以用于构建任何类型的报文处理应用。比如负载均衡、防火墙、IDS、主机栈。也可以是一个组合,比如给负载均衡添加一个vSwitch。

通过创建插件,可以任意扩展如下功能:

  • 自定义新的graph node。
  • 重新排列graph node。
  • 添加底层API。

可编程能力

VPP还提供了基于共享内存或者消息队列的高性能内部API。目前VPP平台支持C和JAVA客户端进行内部API绑定。
如下图所以,我们可以实现一个外部应用来对VPP进行操作:

 

 

 以上的编程能力是针对内部API的调用,另外还可以支持远程可编程能力。远程可编程能力可以通过Data Plane Management Agent来实现。这里所说的Data Plane Management Agent其实就是类似上面的外部应用,只不过他不参与直接控制,只是一个傀儡,用来传话。通过外部API与Data Plane Management Agent进行通信。Data Plane Management Agent通过内部API与VPP应用(引擎)进行通信。这是一个非常灵活的方法,任何人可以添加,但是需要外部API和Data Plane Management Agent匹配,以实现特定需求的VPP应用。
下图展示Agent对接VPP和外部程序:

 

 

 

案例Honeycomb Agent:
Honeycomb Agent通过netconf和restconf发布了yang模型的VPP功能。像OpenDaylight这样支持netconf/yang的控制器可以挂载Honeycomb Management Agent来工作。而OpenDaylight支持OpenStack Neutron,所以如下图所示OpenStack Neutron可以集成到vpp来:

 

 

 

 

网络功能

(https://my-vpp-docs.readthedocs.io/en/latest/overview/index.html)

网络特性

VPP拥有的网络特性如下:

  • 快速查找路由表、CAM表。
  • 任意n元组分类。
  • 商用级别的交换/路由功能。

VPP能提供的所有功能如下:

 

 

 

网络性能

FD.io VPP的一个优点是在相对低功耗的计算上具有高性能,这种性能基于以下特性:

  • 专为商用硬件设计的高性能用户空间网络堆栈:
  • L2,L3和L4功能和封装。
  • 优化的数据包接口,支持多种用例:
    • 用于高速VM到VM连接的集成vhost用户后端
    • 用于高速Container-to-Container连接的集成memif容器后端
    • 基于vhost的集成vhost接口数据包到Linux内核
  • 在主机上运行,​​在VM和Linux容器内运行,都是相同的代码路径
  • 利用最佳的开源驱动程序技术:DPDK
  • 大规模测试;线性核心扩展,使用数百万个流和mac地址进行测试

这些功能旨在充分利用常见的微处理器优化技术,例如:

  • 通过处理向量中的数据包减少缓存和TLS未命中
  • 使用向量指令实现IPC增益,例如:SSE,AVX和NEON
  • 消除模式切换,上下文切换和阻塞,始终执行有用的工作
  • 缓存内置的缓冲区用于缓存和记忆效率

OVS更适用于SDN,因为他的流表更加灵活,实现的功能更加强大,尤其是在IaaS的主机中做网络转发比较常见。

而VPP更适用于NFV,适合做特定功能的网络模块,而且性能占优。

多核基准性能例子 (UCS-C240 M3, 3.5gHz,所有内存通道转发ipv4):

  • 1 core: 9 MPPS in+out。
  • 2 cores: 13.4 MPPS in+out。
  • 4 cores: 20.0 MPPS in+out。

下面几个图展示的是和OVS+DPDK的性能对比:

 

 

 下图是在Haswell x86 架构的E5-2698v3 2x16C 2.3GHz上测试,图中显示了12口10GE,16核,ipv4转发:

 

 

 

源码架构

vpp数据平面分为四个不同的层:

  • 基础架构层:包括vppinfra,vlib,svm和二进制api库。源码:/src/{vppinfra, vlib, svm, vlibapi, vlibmemory}
  • 通用网络协议栈层:vnet。源码:/src/vnet
  • 应用程序shell:vpp。源码:/src/vpp

日益丰富的数据平面插件。源码:/src/plugins

 
参考:
  https://my-vpp-docs.readthedocs.io/en/latest/overview/index.html
  https://www.sohu.com/a/134745174_468741
posted @ 2020-02-22 23:56  坚持,每天进步一点点  阅读(6090)  评论(0编辑  收藏  举报