Linux网络之设备接口层:发送数据包流程dev_queue_xmit

转自:http://blog.csdn.net/wdscq1234/article/details/51926808

 

写在前面

本文主要是分析kernel-3.8的源代码,主要集中在Network的netdevice层面,来贯穿interface传输数据包的流程,kernel 博大精深,这也仅仅是一点个人愚见,作为一个笔记形式的文章,如有错误或者表述不当之处,还请大家留言批评指正,非常感谢!

主要涉及的file:kernel-3.18/net/core/dev.c

                          kernel-3.18/net/sched/sch_generic.c

dev_queue_xmit分析

    当上层的APP试图建立一个TCP的链接,或者发送一个封包的时候,在kernel的协议栈部分,在TCP/UDP层会组成一个网络的封包,然后通过IP进行路由选择以及iptables的Hook,之后 到neighbor层查询或者询问下一跳的链路层地址,然后通过调用dev_queue_xmit这个网络设备接口层函数发送给driver,本文就来分析一下dev_queue_xmit的相关流程,了解一个包是如何发送出去的!

 

[cpp] view plain copy
 
 在CODE上查看代码片派生到我的代码片
  1. int dev_queue_xmit(struct sk_buff *skb)  
  2. {  
  3.     return __dev_queue_xmit(skb, NULL);  
  4. }  

这个是直接调用的__dev_queue_xmit 传入的参数是一个skb 数据包

 

需要确认的几个点就是

1.设备在调用这个函数之前,必须设置设备优先级 和缓冲区buffer

2.如果此函数发送失败,会返回一个负数的Error number,不过即使返回正数,也不一定保证发送成功,封包也许会被网络拥塞给drop掉

3.这个函数也可以从队列规则中返回error,NET_XMIT_DROP, 这个错误是一个整数,所以错误也有可能是整数,也验证了点2 ,所以在协议栈的上一层使用这个函数的时候,可能需要注意error的处理部分

4. 不管这个函数返回什么值,这个skb最终的宿命就是被consume,也就是free掉了...  所以这个时候上层不要尝试重发了... 除非有协议栈的重传, 要不skb已经被free了,再去重新去调用,不要命了..此时kernel就挂掉了...

5.在调用这个函数的时候,必须打开中断,这些东西不是特别明白原因....

 *      When calling this method, interrupts MUST be enabled.  This is because
 *      the BH enable code must have IRQs enabled so that it will not deadlock.

 

[cpp] view plain copy
 
 在CODE上查看代码片派生到我的代码片
  1. static int __dev_queue_xmit(struct sk_buff *skb, void *accel_priv)  
  2. {  
  3.     struct net_device *dev = skb->dev;  
  4.     struct netdev_queue *txq;  
  5.     struct Qdisc *q;  
  6.     int rc = -ENOMEM;  
  7.   
  8.     skb_reset_mac_header(skb);  
  9.   
  10.     if (unlikely(skb_shinfo(skb)->tx_flags & SKBTX_SCHED_TSTAMP))  
  11.         __skb_tstamp_tx(skb, NULL, skb->sk, SCM_TSTAMP_SCHED);  
  12.   
  13.     /* Disable soft irqs for various locks below. Also 
  14.      * stops preemption for RCU. 
  15.      */  
  16.     rcu_read_lock_bh();  
  17.   
  18.     skb_update_prio(skb);  
  19.   
  20.     /* If device/qdisc don't need skb->dst, release it right now while 
  21.      * its hot in this cpu cache. 
  22.      */  
  23.     /*这个地方看netdevcie的flag是否要去掉skb DST相关的信息,一般情况下这个flag是默认被设置的 
  24.      *在alloc_netdev_mqs的时候,已经默认给设置了,其实个人认为这个路由信息也没有太大作用了... 
  25.      *dev->priv_flags = IFF_XMIT_DST_RELEASE | IFF_XMIT_DST_RELEASE_PERM; 
  26.      */  
  27.     if (dev->priv_flags & IFF_XMIT_DST_RELEASE)  
  28.         skb_dst_drop(skb);  
  29.     else  
  30.         skb_dst_force(skb);  
  31.           
  32.         /*此处主要是取出此netdevice的txq和txq的Qdisc,Qdisc主要用于进行拥塞处理,一般的情况下,直接将 
  33.          *数据包发送给driver了,如果遇到Busy的状况,就需要进行拥塞处理了,就会用到Qdisc*/  
  34.     txq = netdev_pick_tx(dev, skb, accel_priv);  
  35.     q = rcu_dereference_bh(txq->qdisc);  
  36.   
  37. #ifdef CONFIG_NET_CLS_ACT  
  38.     skb->tc_verd = SET_TC_AT(skb->tc_verd, AT_EGRESS);  
  39. #endif  
  40.     trace_net_dev_queue(skb);  
  41.       
  42.     /*如果Qdisc有对应的enqueue规则,就会调用__dev_xmit_skb,进入带有拥塞的控制的Flow,注意这个地方,虽然是走拥塞控制的 
  43.      *Flow但是并不一定非得进行enqueue操作啦,只有Busy的状况下,才会走Qdisc的enqueue/dequeue操作进行 
  44.      */  
  45.     if (q->enqueue) {  
  46.         rc = __dev_xmit_skb(skb, q, dev, txq);  
  47.         goto out;  
  48.     }  
  49.   
  50.     /* The device has no queue. Common case for software devices: 
  51.        loopback, all the sorts of tunnels... 
  52.  
  53.        Really, it is unlikely that netif_tx_lock protection is necessary 
  54.        here.  (f.e. loopback and IP tunnels are clean ignoring statistics 
  55.        counters.) 
  56.        However, it is possible, that they rely on protection 
  57.        made by us here. 
  58.  
  59.        Check this and shot the lock. It is not prone from deadlocks. 
  60.        Either shot noqueue qdisc, it is even simpler 8) 
  61.      */  
  62.        
  63.     /*此处是设备没有Qdisc的,实际上没有enqueue/dequeue的规则,无法进行拥塞控制的操作, 
  64.      *对于一些loopback/tunnel interface比较常见,判断下设备是否处于UP状态*/  
  65.     if (dev->flags & IFF_UP) {  
  66.         int cpu = smp_processor_id(); /* ok because BHs are off */  
  67.   
  68.         if (txq->xmit_lock_owner != cpu) {  
  69.   
  70.             if (__this_cpu_read(xmit_recursion) > RECURSION_LIMIT)  
  71.                 goto recursion_alert;  
  72.             skb = validate_xmit_skb(skb, dev);  
  73.             if (!skb)  
  74.                 goto drop;  
  75.   
  76.             HARD_TX_LOCK(dev, txq, cpu);  
  77.                        /*这个地方判断一下txq不是stop状态,那么就直接调用dev_hard_start_xmit函数来发送数据*/  
  78.             if (!netif_xmit_stopped(txq)) {  
  79.                 __this_cpu_inc(xmit_recursion);  
  80.                 skb = dev_hard_start_xmit(skb, dev, txq, &rc);  
  81.                 __this_cpu_dec(xmit_recursion);  
  82.                 if (dev_xmit_complete(rc)) {  
  83.                     HARD_TX_UNLOCK(dev, txq);  
  84.                     goto out;  
  85.                 }  
  86.             }  
  87.             HARD_TX_UNLOCK(dev, txq);  
  88.             net_crit_ratelimited("Virtual device %s asks to queue packet!\n",  
  89.                          dev->name);  
  90.         } else {  
  91.             /* Recursion is detected! It is possible, 
  92.              * unfortunately 
  93.              */  
  94. recursion_alert:  
  95.             net_crit_ratelimited("Dead loop on virtual device %s, fix it urgently!\n",  
  96.                          dev->name);  
  97.         }  
  98.     }  
  99.   
  100.     rc = -ENETDOWN;  
  101. drop:  
  102.     rcu_read_unlock_bh();  
  103.   
  104.     atomic_long_inc(&dev->tx_dropped);  
  105.     kfree_skb_list(skb);  
  106.     return rc;  
  107. out:  
  108.     rcu_read_unlock_bh();  
  109.     return rc;  
  110. }  

 

 

从对_dev_queue_xmit函数的分析来看,发送报文有2中情况:

1.有拥塞控制策略的情况,比较复杂,但是目前最常用

2.没有enqueue的状况,比较简单,直接发送到driver,如loopback等使用

       先检查是否有enqueue的规则,如果有即调用__dev_xmit_skb进入拥塞控制的flow,如果没有且txq处于On的状态,那么就调用dev_hard_start_xmit直接发送到driver,好 那先分析带Qdisc策略的flow 进入__dev_xmit_skb

__dev_xmit_skb分析

 

[cpp] view plain copy
 
 在CODE上查看代码片派生到我的代码片
  1. static inline int __dev_xmit_skb(struct sk_buff *skb, struct Qdisc *q,  
  2.                  struct net_device *dev,  
  3.                  struct netdev_queue *txq)  
  4. {  
  5.     spinlock_t *root_lock = qdisc_lock(q);  
  6.     bool contended;  
  7.     int rc;  
  8.   
  9.     qdisc_pkt_len_init(skb);  
  10.     qdisc_calculate_pkt_len(skb, q);  
  11.     /* 
  12.      * Heuristic to force contended enqueues to serialize on a 
  13.      * separate lock before trying to get qdisc main lock. 
  14.      * This permits __QDISC___STATE_RUNNING owner to get the lock more 
  15.      * often and dequeue packets faster. 
  16.      */  
  17.     contended = qdisc_is_running(q);  
  18.     if (unlikely(contended))  
  19.         spin_lock(&q->busylock);  
  20.   
  21.     spin_lock(root_lock);  
  22.       
  23.     /*这个地方主要是判定Qdisc的state: __QDISC_STATE_DEACTIVATED,如果处于非活动的状态,就DROP这个包,返回NET_XMIT_DROP 
  24.      *一般情况下带有Qdisc策略的interface,在被close的时候才会打上这个flag */  
  25.     if (unlikely(test_bit(__QDISC_STATE_DEACTIVATED, &q->state))) {  
  26.         kfree_skb(skb);  
  27.         rc = NET_XMIT_DROP;  
  28.     } else if ((q->flags & TCQ_F_CAN_BYPASS) && !qdisc_qlen(q) &&  
  29.            qdisc_run_begin(q)) {  
  30.         /* 
  31.          * This is a work-conserving queue; there are no old skbs 
  32.          * waiting to be sent out; and the qdisc is not running - 
  33.          * xmit the skb directly. 
  34.          */  
  35.                 /* 结合注释以及code来看,此处必须满足3个调节才可以进来, 
  36.                  * 1.flag必须有TCQ_F_CAN_BYPASS,默认条件下是有的,表明可以By PASS Qdisc规则 
  37.                  * 2.q的len为0,也就是说Qdisc中一个包也没有 
  38.                  * 3.Qdisc 起初并没有处于running的状态,然后置位Running! 
  39.                  * 满足上述3个条件调用sch_direct_xmit 
  40.                  */  
  41.         qdisc_bstats_update(q, skb);  
  42.   
  43.                 /*这个函数*/  
  44.         if (sch_direct_xmit(skb, q, dev, txq, root_lock, true)) {  
  45.             if (unlikely(contended)) {  
  46.                 spin_unlock(&q->busylock);  
  47.                 contended = false;  
  48.             }  
  49.             __qdisc_run(q);  
  50.         } else  
  51.             qdisc_run_end(q);  
  52.   
  53.         rc = NET_XMIT_SUCCESS;  
  54.     } else {  
  55.       
  56.        /*如果上述3个条件其中任何一个或者多个不满足,就要进行enqueue操作了,这个地方其实就是表明通讯出现拥塞,需要进行管理了 
  57.         *如果q不是运行状态,就设置成运行状况,如果一直是运行状态,那么就不用管了!*/  
  58.         rc = q->enqueue(skb, q) & NET_XMIT_MASK;  
  59.         if (qdisc_run_begin(q)) {  
  60.             if (unlikely(contended)) {  
  61.                 spin_unlock(&q->busylock);  
  62.                 contended = false;  
  63.             }  
  64.             __qdisc_run(q);  
  65.         }  
  66.     }  
  67.     spin_unlock(root_lock);  
  68.     if (unlikely(contended))  
  69.         spin_unlock(&q->busylock);  
  70.     return rc;  
  71. }  


从上述分析来看,可以分成2个状况:

 

1. Qdisc满足上述3个条件,置位TCQ_F_CAN_BYPASS,0个包,没有running直接调用sch_direct_xmit,感觉这种状况,是一开始刚发第一个包的时候肯定是这种状况...

2.不满足上述的3个条件 一个或者多个,那就直接进行enqueue操作,然后运行qdisc

个人认为,第一种状况是在网络通畅的状况下遇到的状况,qdisc的队列基本上处于空的状态,都是直接传送给driver了,第二种情况是属于出现网络拥塞的情况,出现发送失败的状况了

Q里面还有一些待发送的数据包,为了保证Q中的数据按照Qdisc的规则发送,比如先进先出,就需要enqueue操作,然后再去dequeue发送出去!

sch_direct_xmit

下面来分析sch_direct_xmit,这个函数可能传输几个数据包,因为在不经过queue状况下和经过queue的状况下都会调通过这个函数发送,如果是queue状况,肯定是能够传输多个数据包了,本文后面也有分析,并按照需求处理return的状态,需要拿着__QDISC___STATE_RUNNING  bit,只有一个CPU 可以执行这个函数, 在这里有可能会出现BUSY的状况!

 

[cpp] view plain copy
 
 在CODE上查看代码片派生到我的代码片
  1. int sch_direct_xmit(struct sk_buff *skb, struct Qdisc *q,  
  2.             struct net_device *dev, struct netdev_queue *txq,  
  3.             spinlock_t *root_lock, bool validate)  
  4. {  
  5.     int ret = NETDEV_TX_BUSY;  
  6.   
  7.     /* And release qdisc */  
  8.     spin_unlock(root_lock);  
  9.   
  10.     /* Note that we validate skb (GSO, checksum, ...) outside of locks */  
  11.     if (validate)  
  12.         skb = validate_xmit_skb_list(skb, dev);  
  13.   
  14.     if (likely(skb)) {  
  15.         HARD_TX_LOCK(dev, txq, smp_processor_id());  
  16.         /*如果说txq被stop,即置位QUEUE_STATE_ANY_XOFF_OR_FROZEN,就直接ret = NETDEV_TX_BUSY 
  17.          *如果说txq 正常运行,那么直接调用dev_hard_start_xmit发送数据包*/  
  18.         if (!netif_xmit_frozen_or_stopped(txq))  
  19.             skb = dev_hard_start_xmit(skb, dev, txq, &ret);  
  20.   
  21.         HARD_TX_UNLOCK(dev, txq);  
  22.     } else {  
  23.         spin_lock(root_lock);  
  24.         return qdisc_qlen(q);  
  25.     }  
  26.     spin_lock(root_lock);  
  27.        /*进行返回值处理! 如果ret < NET_XMIT_MASK 为true 否则 flase*/  
  28.     if (dev_xmit_complete(ret)) {  
  29.         /* Driver sent out skb successfully or skb was consumed */  
  30.         /*这个地方需要注意可能有driver的负数的case,也意味着这个skb被drop了*/  
  31.         ret = qdisc_qlen(q);  
  32.     } else if (ret == NETDEV_TX_LOCKED) {  
  33.         /* Driver try lock failed */  
  34.         ret = handle_dev_cpu_collision(skb, txq, q);  
  35.     } else {  
  36.         /* Driver returned NETDEV_TX_BUSY - requeue skb */  
  37.         if (unlikely(ret != NETDEV_TX_BUSY))  
  38.             net_warn_ratelimited("BUG %s code %d qlen %d\n",  
  39.                          dev->name, ret, q->q.qlen);  
  40.                /*发生Tx Busy的时候,重新进行requeue*/  
  41.         ret = dev_requeue_skb(skb, q);  
  42.     }  
  43.      
  44.         /*如果txq stop并且ret !=0  说明已经无法发送数据包了ret = 0*/  
  45.     if (ret && netif_xmit_frozen_or_stopped(txq))  
  46.         ret = 0;  
  47.   
  48.     return ret;  
  49. }  


这个函数就是在txq没有被stop的状况下,直接发送给driver,如果遇到无法发送的状况,要么是fail的,要么出现Tx Busy就requeue,使用拥塞的方式进行发送。

 

dev_hard_start_xmit

继续看dev_hard_start_xmit,这个函数比较简单,调用xmit_one来发送一个到多个数据包了

 

[cpp] view plain copy
 
 在CODE上查看代码片派生到我的代码片
  1. struct sk_buff *dev_hard_start_xmit(struct sk_buff *first, struct net_device *dev,  
  2.                     struct netdev_queue *txq, int *ret)  
  3. {  
  4.     struct sk_buff *skb = first;  
  5.     int rc = NETDEV_TX_OK;  
  6.        /*此处skb为什么会有链表呢?*/  
  7.     while (skb) {  
  8.           /*取出skb的下一个数据单元*/  
  9.         struct sk_buff *next = skb->next;  
  10.               /*置空,待发送数据包的next*/  
  11.         skb->next = NULL;  
  12.           
  13.            /*将此数据包送到driver Tx函数,因为dequeue的数据也会从这里发送,所以会有netx!*/  
  14.         rc = xmit_one(skb, dev, txq, next != NULL);  
  15.           
  16.         /*如果发送不成功,next还原到skb->next 退出*/  
  17.         if (unlikely(!dev_xmit_complete(rc))) {  
  18.             skb->next = next;  
  19.             goto out;  
  20.         }  
  21.                 /*如果发送成功,把next置给skb,一般的next为空 这样就返回,如果不为空就继续发!*/  
  22.         skb = next;  
  23.           
  24.         /*如果txq被stop,并且skb需要发送,就产生TX Busy的问题!*/  
  25.         if (netif_xmit_stopped(txq) && skb) {  
  26.             rc = NETDEV_TX_BUSY;  
  27.             break;  
  28.         }  
  29.     }  
  30.   
  31. out:  
  32.     *ret = rc;  
  33.     return skb;  
  34. }  

对于xmit_one这个来讲比较简单了,下面代码中列出了xmit_one, netdev_start_xmit,__netdev_start_xmit 这个三个函数,其目的就是将封包送到driver的tx函数了..中间在送往driver之前,还会经历抓包的过程,本文不介绍抓包的流程了。

 

[cpp] view plain copy
 
 在CODE上查看代码片派生到我的代码片
  1. static int xmit_one(struct sk_buff *skb, struct net_device *dev,  
  2.             struct netdev_queue *txq, bool more)  
  3. {  
  4.     unsigned int len;  
  5.     int rc;  
  6.       
  7.     /*如果有抓包的工具的话,这个地方会进行抓包,such as Tcpdump*/  
  8.     if (!list_empty(&ptype_all))  
  9.         dev_queue_xmit_nit(skb, dev);  
  10.   
  11.     len = skb->len;  
  12.     trace_net_dev_start_xmit(skb, dev);  
  13.         /*调用netdev_start_xmit,快到driver的tx函数了*/  
  14.     rc = netdev_start_xmit(skb, dev, txq, more);  
  15.     trace_net_dev_xmit(skb, rc, dev, len);  
  16.   
  17.     return rc;  
  18. }  
  19.   
  20. static inline netdev_tx_t netdev_start_xmit(struct sk_buff *skb, struct net_device *dev,  
  21.                         struct netdev_queue *txq, bool more)  
  22. {  
  23.     const struct net_device_ops *ops = dev->netdev_ops;  
  24.     int rc;  
  25.     /*__netdev_start_xmit 里面就完全是使用driver 的ops去发包了,其实到此为止,一个skb已经从netdevice 
  26.      *这个层面送到driver层了,接下来会等待driver的返回*/  
  27.     rc = __netdev_start_xmit(ops, skb, dev, more);  
  28.       
  29.     /*如果返回NETDEV_TX_OK,那么会更新下Txq的trans时间戳哦,txq->trans_start = jiffies;*/  
  30.     if (rc == NETDEV_TX_OK)  
  31.         txq_trans_update(txq);  
  32.   
  33.     return rc;  
  34. }  
  35.   
  36. static inline netdev_tx_t __netdev_start_xmit(const struct net_device_ops *ops,  
  37.                           struct sk_buff *skb, struct net_device *dev,  
  38.                           bool more)  
  39. {  
  40.     skb->xmit_more = more ? 1 : 0;  
  41.     return ops->ndo_start_xmit(skb, dev);  
  42. }  

 

 

分析到这里已经形成了一条线,__dev_xmit_skb中对于qlen为0的状态下直接调用sch_direct_xmit去发送,这个时候sch_direct_xmit也直接调用了dev_hard_start_xmit来直接送到driver,如果发送成功会返回NETDEV_TX_OK,如果由于一些原因产生TX_BUSY的话,重新将这个包requeu到Qdisc中,再使用拥塞的方式发送

拥塞发送方式分析

Qdisc简介

       接下来再分析下另外一条线,如果不满足上述的3个条件,即interface配置不允许直接发送,或者是有发送失败的包或者积累的封包等,就需要被enqueue了,进入Qdisc的操作!

从code中看,直接是q->enqueue这样的钩子函数调用,那么这个函数在哪里被赋值的!

1. 注册的flow,默认是没有Qdisc的

register_netdevice-->dev_init_scheduler--->dev->qdisc = &noop_qdisc;  //默认是没有qdisc

可以看下Code中对noop_qdisc的规定...

 

[cpp] view plain copy
 
 在CODE上查看代码片派生到我的代码片
  1. struct Qdisc noop_qdisc = {  
  2.     .enqueue    =   noop_enqueue,  
  3.     .dequeue    =   noop_dequeue,  
  4.     .flags      =   TCQ_F_BUILTIN,  
  5.     .ops        =   &noop_qdisc_ops,  
  6.     .list       =   LIST_HEAD_INIT(noop_qdisc.list),  
  7.     .q.lock     =   __SPIN_LOCK_UNLOCKED(noop_qdisc.q.lock),  
  8.     .dev_queue  =   &noop_netdev_queue,  
  9.     .busylock   =   __SPIN_LOCK_UNLOCKED(noop_qdisc.busylock),  
  10. };  

 

[cpp] view plain copy
 
 在CODE上查看代码片派生到我的代码片
  1. static struct Qdisc_ops noqueue_qdisc_ops __read_mostly = {  
  2.     .id     =   "noqueue",  
  3.     .priv_size  =   0,  
  4.     .enqueue    =   noop_enqueue,  
  5.     .dequeue    =   noop_dequeue,  
  6.     .peek       =   noop_dequeue,  
  7.     .owner      =   THIS_MODULE,  
  8. };  

enqueue/dequeue规则 不能使用哈!

[cpp] view plain copy
 
 在CODE上查看代码片派生到我的代码片
  1. /* "NOOP" scheduler: the best scheduler, recommended for all interfaces 
  2.    under all circumstances. It is difficult to invent anything faster or 
  3.    cheaper. 
  4.  */  
  5.   
  6. static int noop_enqueue(struct sk_buff *skb, struct Qdisc *qdisc)  
  7. {  
  8.     kfree_skb(skb);  
  9.     return NET_XMIT_CN;  
  10. }  
  11.   
  12. static struct sk_buff *noop_dequeue(struct Qdisc *qdisc)  
  13. {  
  14.     return NULL;  
  15. }  

 

2.在打开设备的时候,赋予default

实际上刚开始注册的时候 就是这样 ,并没有任何可用的规则,但是在真正打开interface的时候,系统还是给赋予系统默认的!

dev_open-->__dev_open-->dev_activate

 

[cpp] view plain copy
 
 在CODE上查看代码片派生到我的代码片
  1.       /*如果没有Qdisc的规则设置到device,就给设备create一个默认的规则*/  
  2. f (dev->qdisc == &noop_qdisc)  
  3. attach_default_qdiscs(dev);  

 

[cpp] view plain copy
 
 在CODE上查看代码片派生到我的代码片
  1. static void attach_default_qdiscs(struct net_device *dev)  
  2. {  
  3.     struct netdev_queue *txq;  
  4.     struct Qdisc *qdisc;  
  5.   
  6.     txq = netdev_get_tx_queue(dev, 0);  
  7.            
  8.         /*这个地方判断dev是否是多Q的设备,如果是不是多Q的设备,或者tx_queue_len为0 就会进入if判断 
  9.          *这个地方比较疑惑,if内部使用的是一个循环去遍历tx_queue 感觉是要处理multiqueue的状况,现在 
  10.          *却用来处理一个的...*/  
  11.     if (!netif_is_multiqueue(dev) || dev->tx_queue_len == 0) {  
  12.         netdev_for_each_tx_queue(dev, attach_one_default_qdisc, NULL);  
  13.         dev->qdisc = txq->qdisc_sleeping;  
  14.         atomic_inc(&dev->qdisc->refcnt);  
  15.     } else {  
  16.       
  17.     /*如果不满足上述条件,就创建一个默认的,mq_qdisc_ops,从他的注释来看 mq 的Qdisc只使用与多Q状况*/  
  18.         qdisc = qdisc_create_dflt(txq, &mq_qdisc_ops, TC_H_ROOT);  
  19.         if (qdisc) {  
  20.             dev->qdisc = qdisc;  
  21.             qdisc->ops->attach(qdisc);  
  22.         }  
  23.     }  
  24. }  


我们在使用的netdevice基本上都是单队列的,默认情况下都是这个pfifo_fast_ops队列,具体Qdisc的知识这边不做深究!

 

 

[cpp] view plain copy
 
 在CODE上查看代码片派生到我的代码片
  1. struct Qdisc_ops pfifo_fast_ops __read_mostly = {  
  2.     .id     =   "pfifo_fast",  
  3.     .priv_size  =   sizeof(struct pfifo_fast_priv),  
  4.     .enqueue    =   pfifo_fast_enqueue,  
  5.     .dequeue    =   pfifo_fast_dequeue,  
  6.     .peek       =   pfifo_fast_peek,  
  7.     .init       =   pfifo_fast_init,  
  8.     .reset      =   pfifo_fast_reset,  
  9.     .dump       =   pfifo_fast_dump,  
  10.     .owner      =   THIS_MODULE,  
  11. };  

在这里我们可以看到TCQ_F_CAN_BYPASS,这个flag置位,就表明数据包发送不一定非得走队列的规则,可以by pass这个规则,直接通过发送到driver,不过在一般没有阻塞的通讯状况下,有了这个flag,基本就都是直接发送出去了!

[cpp] view plain copy
 
 在CODE上查看代码片派生到我的代码片
  1. static int pfifo_fast_init(struct Qdisc *qdisc, struct nlattr *opt)  
  2. {  
  3.     int prio;  
  4.     struct pfifo_fast_priv *priv = qdisc_priv(qdisc);  
  5.   
  6.     for (prio = 0; prio < PFIFO_FAST_BANDS; prio++)  
  7.         __skb_queue_head_init(band2list(priv, prio));  
  8.   
  9.     /* Can by-pass the queue discipline */  
  10.     qdisc->flags |= TCQ_F_CAN_BYPASS;  
  11.     return 0;  
  12. }  

 

 

Enqueue

回归到正题,假设interface就是使用的pfifo_fast Qdisc规则,那么我们调用的enqueue直接走到pfifo_fast_enqueue,在里面就直接放到队列里,如果超出了最大的积攒数量就DROP掉了,返回NET_XMIT_DROP

 

[cpp] view plain copy
 
 在CODE上查看代码片派生到我的代码片
  1. static int pfifo_fast_enqueue(struct sk_buff *skb, struct Qdisc *qdisc)  
  2. {   
  3.         /*先是要判断一下在Q中的数据包的数量,是否超过了tx_queue_len的值*/  
  4.     if (skb_queue_len(&qdisc->q) < qdisc_dev(qdisc)->tx_queue_len) {  
  5.         int band = prio2band[skb->priority & TC_PRIO_MAX];  
  6.         struct pfifo_fast_priv *priv = qdisc_priv(qdisc);  
  7.         struct sk_buff_head *list = band2list(priv, band);  
  8.   
  9.         priv->bitmap |= (1 << band);  
  10.         qdisc->q.qlen++;  
  11.         /*将数据包enqueue到队列中*/  
  12.         return __qdisc_enqueue_tail(skb, qdisc, list);  
  13.     }  
  14.        /*如果超出了tx_queue_len的最大值,说明已经积累到了最大,网络通信出现了问题,这个包被DROP*/  
  15.     return qdisc_drop(skb, qdisc);  
  16. }  

 

__qdisc_run

       再回到__dev_xmit_skb 这个函数,enqueue完毕之后,如果这个Qdisc不是Running状态,就开启Running状态,然后调用了这个函数__qdisc_run(q);

 

在其中主要是调用了qdisc_restart来从队列中dequeue出封包,然后再调用sch_direct_xmit函数去直接发送封包,这个函数我们上面有分析过,就是直接发送给driver了

然后出现BUSY的就requeue到队列中。因为有可能从队列中取封包,所以这个函数可能发若干个包,要注意的是这些发送封包的过程都是出于process context

 

[cpp] view plain copy
 
 在CODE上查看代码片派生到我的代码片
  1. void __qdisc_run(struct Qdisc *q)  
  2. {  
  3.     int quota = weight_p;  
  4.     int packets;  
  5.   
  6.         /*这个函数是调用qdisc_restart去发送Q中的数据包,packet记录这次发送了多少...*/  
  7.     while (qdisc_restart(q, &packets)) {  
  8.         /* 
  9.          * Ordered by possible occurrence: Postpone processing if 
  10.          * 1. we've exceeded packet quota 
  11.          * 2. another process needs the CPU; 
  12.          */  
  13.         /* 这边会有限定额度64个封包,如果超过64个就不能再次连续发了, 
  14.          *  需要以后执行softirq去发送了*/  
  15.         quota -= packets;  
  16.         if (quota <= 0 || need_resched()) {  
  17.             __netif_schedule(q);  
  18.             break;  
  19.         }  
  20.     }  
  21.         /*关闭Qdisc*/  
  22.     qdisc_run_end(q);  
  23. }  
  24.   
  25. static inline int qdisc_restart(struct Qdisc *q, int *packets)  
  26. {  
  27.     struct netdev_queue *txq;  
  28.     struct net_device *dev;  
  29.     spinlock_t *root_lock;  
  30.     struct sk_buff *skb;  
  31.     bool validate;  
  32.   
  33.     /* Dequeue packet */  
  34.     /*从队列中取出skb*/  
  35.     skb = dequeue_skb(q, &validate, packets);  
  36.     if (unlikely(!skb))  
  37.         return 0;  
  38.   
  39.     root_lock = qdisc_lock(q);  
  40.     dev = qdisc_dev(q);  
  41.     txq = skb_get_tx_queue(dev, skb);  
  42.         /*这个函数之前在将第一种状况的时候讲过,在Qdisc的状况下 也有通过这个函数直接发送的情况 
  43.          *实际上这个函数是在直接去发送,这个可以直接发送之前留存下来的包,所以函数的解释是 
  44.          *可以发送若干个封包*/  
  45.     return sch_direct_xmit(skb, q, dev, txq, root_lock, validate);  
  46. }  

 

 

ok,假设我们已经发送了若干个封包了,已经超过64个,那么会调用__netif_schedule去打开softirq利用软中断去发送在queue的封包

 

[cpp] view plain copy
 
 在CODE上查看代码片派生到我的代码片
  1. void __netif_schedule(struct Qdisc *q)  
  2. {  
  3.     if (!test_and_set_bit(__QDISC_STATE_SCHED, &q->state))  
  4.         __netif_reschedule(q);  
  5. }  
  6. static inline void __netif_reschedule(struct Qdisc *q)  
  7. {  
  8.     struct softnet_data *sd;  
  9.     unsigned long flags;  
  10.   
  11.     local_irq_save(flags);  
  12.       
  13.     /*每一个CPU都有个softnet_data结构体,可以通过这个函数get到*/  
  14.     sd = this_cpu_ptr(&softnet_data);  
  15.     q->next_sched = NULL;  
  16.     /*将这个Q放到CPU的softnet_data的output_queue_tailp*/  
  17.     *sd->output_queue_tailp = q;  
  18.     sd->output_queue_tailp = &q->next_sched;  
  19.     raise_softirq_irqoff(NET_TX_SOFTIRQ);  
  20.     local_irq_restore(flags);  
  21. }  

net_tx_action

net_tx_action便是软中断的执行函数,主要是做2件事情

 

 第一件事情就是free使用完的skb,driver一般发送完数据之后,就会调用dev_kfree_skb_irq 届时这个地方就是来free的  

 第二件事情就是调用qdisc_run发送数据包了,重复之前上面的分析了...

 

[cpp] view plain copy
 
 在CODE上查看代码片派生到我的代码片
  1. static void net_tx_action(struct softirq_action *h)  
  2. {  
  3.     struct softnet_data *sd = this_cpu_ptr(&softnet_data);  
  4.      
  5.          
  6.          /*首先判断softnet_data里的completion_queue是否为空,对于发送而言, 
  7.           *硬中断只是通过网卡把包发走,但是回收内存的事情是通过软中断来做的, 
  8.           *设备驱动发送完数据之后,会调用dev_kfree_skb_irq,不过也有的设备比较个别 
  9.           *自己去free,这个其实也没有什么问题的...省掉了软中断的处理*/  
  10.     if (sd->completion_queue) {  
  11.         struct sk_buff *clist;  
  12.   
  13.         local_irq_disable();  
  14.         clist = sd->completion_queue;  
  15.         sd->completion_queue = NULL;  
  16.         local_irq_enable();  
  17.   
  18.         while (clist) {  
  19.             struct sk_buff *skb = clist;  
  20.             clist = clist->next;  
  21.   
  22.             WARN_ON(atomic_read(&skb->users));  
  23.             if (likely(get_kfree_skb_cb(skb)->reason == SKB_REASON_CONSUMED))  
  24.                 trace_consume_skb(skb);  
  25.             else  
  26.                 trace_kfree_skb(skb, net_tx_action);  
  27.             __kfree_skb(skb);  
  28.         }  
  29.     }  
  30.       /*这个是output_queue,主要是没有发送完成的包了,就会调用qdisc_run去发送*/  
  31.     if (sd->output_queue) {  
  32.         struct Qdisc *head;  
  33.   
  34.         local_irq_disable();  
  35.         head = sd->output_queue;  
  36.         sd->output_queue = NULL;  
  37.         sd->output_queue_tailp = &sd->output_queue;  
  38.         local_irq_enable();  
  39.   
  40.         while (head) {  
  41.             struct Qdisc *q = head;  
  42.             spinlock_t *root_lock;  
  43.   
  44.             head = head->next_sched;  
  45.   
  46.             root_lock = qdisc_lock(q);  
  47.             if (spin_trylock(root_lock)) {  
  48.                 smp_mb__before_atomic();  
  49.                 clear_bit(__QDISC_STATE_SCHED,  
  50.                       &q->state);  
  51.                 qdisc_run(q);  
  52.                 spin_unlock(root_lock);  
  53.             } else {  
  54.                 if (!test_bit(__QDISC_STATE_DEACTIVATED,  
  55.                           &q->state)) {  
  56.                     __netif_reschedule(q);  
  57.                 } else {  
  58.                     smp_mb__before_atomic();  
  59.                     clear_bit(__QDISC_STATE_SCHED,  
  60.                           &q->state);  
  61.                 }  
  62.             }  
  63.         }  
  64.     }  
  65. }  


到这里,整个netdevice层面,Network的Tx flow已经基本分析完了,进行简单的总结!

 

 

总结

 

    1.从宏观上来看,根本设备有无enqueue的方法,可以分成两种发送数据包的方式,第一就是有拥塞控制的数据传输,第二个就是什么都没有的直接传输到driver的,当然大部分的于外界沟通的interface都属于第一种,像loopback,tunnel一些设备就属于第二种没有enqueue的!

    2. 对于有拥塞控制的数据传输,也有2条路径,第一条就是在满足3个前提条件下,直接发送数据包到硬件,和上述第二种case是一样的, 第二条就是出现拥塞的状况,就是有封包发送不成功,或者数据包量比较大的状况,这时候会用到enqueue,应该是保证顺序,所以一般q有包的状况 就都需要enqueue,然后再去dequeue发送到硬件,毕竟进程的上下文不会让你过多的占用时间,有一定的量的限制,限制条件到了就会中断发送,改用软中断的方式!

posted @ 2017-03-31 10:39  明明是悟空  阅读(4313)  评论(0编辑  收藏  举报