qemu网络虚拟化之数据流向分析一

插曲:  

今天下午欣喜的想写点关于qemu网络部分的功能,但是中途出现了点小插曲,电脑被某人搞得死机了,并且文章也没有保存。结果,,,就只能重新写了!!所以这里强烈建议开发团队提供自动保存的功能!

言归正传,前段时间自己写过关于Linux 内部网桥的实现原理以及数据包从物理网卡到达Linux网桥进行转发,再到Tap设备的流程。从qemu网络虚拟化整体框架来看,这部分只能算是前端,就像是数据到达了交换机,还没有从交换机到达具体客户机。这么比喻也不是很贴切,因为Linux网桥就好比一个交换机了,但是这么说大题上也不伤大雅。今天主要分析下数据是如何经过qemu到达客户机的。

这部分内容准备分成两部分,第一部分介绍主要的数据结构以及数据结构之间的关系,第二部分结合源代码分析其具体实现。

下面看涉及到的主要数据结构:

 

 1 struct NetClientState {
 2     NetClientInfo *info;
 3     int link_down;
 4     QTAILQ_ENTRY(NetClientState) next;
 5     NetClientState *peer;
 6     NetQueue *incoming_queue;
 7     char *model;
 8     char *name;
 9     char info_str[256];
10     unsigned receive_disabled : 1;
11     NetClientDestructor *destructor;
12     unsigned int queue_index;
13     unsigned rxfilter_notify_enabled:1;
14 };

 首先要说的是一个叫做NetClientInfo的结构,它并不对应于具体的实体,而在笔者看来倒像是一个逻辑点,Hub和nic,Hub和Tap都是通过此结构联系的,所以先介绍这个结构,其中的peer指针就指向对等实体的NetClientState结构,incoming_queue就是该点的接收数据的队列,在发送数据的时候要判断对端的incoming_queues是否可用,可用才可以发送数据。其他的字段这里暂时忽略。queue_index好像和网卡的多队列特性相关,暂时不太清楚。next作为一个节点加入到全局的net client链表中。

 

1 struct NetHub {
2     int id;
3     QLIST_ENTRY(NetHub) next;
4     int num_ports;
5     QLIST_HEAD(, NetHubPort) ports;
6 };

 NetHub结构,这里就表示一个Hub,实体名字为集线器,其功能就是把收到的数据包从接收端口之外的所有端口转发出去,qemu内部的vlan就是通过这个Hub实现的,Hub id就表示vlan id,num_port是端口的数量,一个Hub下的所有端口通过port连接起来,ports是链表头。

 

1 typedef struct NetHubPort {
2     NetClientState nc;
3     QLIST_ENTRY(NetHubPort) next;
4     NetHub *hub;
5     int id;
6 } NetHubPort;

 NetHubPort代表一个Hub中的一个端口,NetClientState表示本端口的逻辑连接点,是一个内嵌结构(非指针),next指向下一个port,Hub 指向所属的Hub对象。

 

 1 struct NICInfo {
 2     MACAddr macaddr;
 3     char *model;
 4     char *name;
 5     char *devaddr;
 6     NetClientState *netdev;
 7     int used;         /* is this slot in nd_table[] being used? */
 8     int instantiated; /* does this NICInfo correspond to an instantiated NIC? */
 9     int nvectors;
10 };

 NICInfo代表一个虚拟网卡,也就是和客户机相关的,这里姑且称之为客户端,通过NICInfo中的netdev指针,NICInfo和Hub ports相连接。qemu中有一个全局的数组来表示NICInfo的空间

 NICInfo nd_table[MAX_NICS];.

1 typedef struct NICState {
2     NetClientState *ncs;
3     NICConf *conf;
4     void *opaque;
5     bool peer_deleted;
6 } NICState;

 这是和虚拟网卡相关的一个结构,ncs被初始化成一个指针指向一个NetClientState数组,conf指向网卡对应的NICConf结构,该结构记录了网卡的硬件信息,其中有个重要的peers,是一个内嵌结构,结合下面的结构展示,peers->ncs是一个指向NetClientState数组的指针,该结构的初始化时在最初根据命令行参数设置的,在网卡初始化的时候前面两个数组正好作为两个逻辑点需要其中的对应项建立关联。其实NICState 的ncs指向的数组项应该是1,这里的项数是根据NICConf中的queues确定的,而queues在NICConf初始化的时候并没有被设置,笔者猜想这里应该默认被初始化成0了。

1 typedef struct NICConf {
2     MACAddr macaddr;
3     NICPeers peers;
4     int32_t bootindex;
5     int32_t queues;
6 } NICConf;

 这是网卡的配置结构,各个字段的意义根据名称就显露无疑。macaddr为网卡的物理MAC,peers指向一个NICPeers,该结构记录了对等的NetClientState结构数组,queues记录了网卡的队列个数。

 

1 typedef struct NICPeers {
2     NetClientState *ncs[MAX_QUEUE_NUM];
3 } NICPeers;

 

 

 

 1 typedef struct TAPState {
 2     NetClientState nc;
 3     int fd;
 4     char down_script[1024];
 5     char down_script_arg[128];
 6     uint8_t buf[NET_BUFSIZE];
 7     bool read_poll;
 8     bool write_poll;
 9     bool using_vnet_hdr;
10     bool has_ufo;
11     bool enabled;
12     VHostNetState *vhost_net;
13     unsigned host_vnet_hdr_len;
14 } TAPState;

 TAPState代表一个tap设备,数据从Linux端口出来发送给tap设备,而用户程序需要从tap设备读写数据(对应于实际意义上的接收和发送),TAPState结构和NetHubPorts结构一样,都内嵌了NetClentState结构。Tap设备和Hub就是通过这两个NetClentState相关联。

 

而关于Hub和网卡NIC的关联,虽然有些博文也提到了,但是笔者总感觉说的有些含糊,并且经过笔者自己分析代码,这部分也不是很清楚,所以这部分内容具体就留在下篇结合源代码在说,对这块内容熟悉的朋友也希望多多指点,大家一起学习!

 


 

NetHub和NetHubPort关系图:

 

TAPState和NetHubPort 关系图:

 

 

posted @ 2016-09-27 20:50  jack.chen  Views(2092)  Comments(0Edit  收藏  举报

以马内利