网络数据流向的问题
网络数据可以粗略主要分为两大部分: 一部分为协议头、尾,一部分为有效负载数据。
数据流量方向
它们经过网路协议的路径,主要由其本身所带有的角色所决定,可参见网络数据流向框架图
设备如何接收/传输数据?
从上面的数据流量方向框架,我们的设备主要工作在L1(物理链路层)、L2(mac)层。
再往上,基本上为应用层(协议层),暂不在我们的考虑范围内。
设备与内核主要通过中断、轮询方式来交换数据。
当然,各有优缺点。
对于处理高负载网络数据,若采用中断的方式,会坑死cpu的,即使这样,还是会造成很多数据帧无法及时被得到处理而造成网络数据拥堵不堪。
对于处理一般低负载的数据,若采用轮询,也会坑死cpu,浪费cpu资源。
对于处理好低、高负载数据,网卡驱动需要很好的掌控好中断、轮询处理数据的权值,幸运的是随着linux 内核不断进化,更多的网卡已经考虑到了和实现了满足网卡设备处理数据机制,那就是NAPINAPI more info
关于NAPI后面进一步拆讲
来看下frame data 的接收
数据帧接收路径
几个较为关键的处理函数
1. netif_rx/netif_wake_queue //restart transmit
netif_rx(struct sk_buff *skb) //主要用来接收来自设备的数据包,然后重新队列化,为送往更上一协议层进行处理做好准备。
其中buffer在网络拥塞的情况下也会出现丢包的现象(但这种几率较小)
2. dev_queue_xmit(struct sk_buff *skb, void *accel_priv)
skb: 传输的buffer
accel_priv: 存储L2层私有的负载数据
其中调用该函数时有几个点需要注意:
a. 设置设备的优先级
b. 提前构建好要传输的buffer
c. 可以在中断里运行,但必须enbale irq,以避免死锁
3. hard_start_xmit
netdev_tx_t (*hard_start_xmit) (struct libipw_txb * txb,
struct net_device * dev, int pri);
referto inter\ipw2x00
priv->ieee->hard_start_xmit = ipw2100_tx;
继承了NAPI思想,主要通过soft_irq + 轮询 数据帧队列ipw2100_tx_packet来完成高并发(high traffic)的数据处理
高流量负载下,仅靠中断能hold住吗?
先来看看中断处理多帧流程:
a. 当检测到数据帧的到来时,产生硬件中断,内核将中断其他活动,一心来处理当前事务
b. 接收数据帧代码可以分为两部分:首先,驱动把该帧拷贝到内核传输队列里;然后,内核收到数据后,把数据扔给协议相关的专用处理函数处理
c. 第一部分(接收数据部分)在中断环境中执行,第二部分为内核处理数据部分,第一部分可以抢占第二部分的执行,即是接收数据的优先级大于数据帧处理
结合以上,其结果很明显看出,在高流量负载下,中断代码将会持续抢占处理数据代码,这样积累到了一个时间点后,输入队列过满,但是此时应该要处理数据帧的代码因为优先级低而没有机会执行,最后会造成大数据拥塞,然后被丢失,进而系统将面临崩溃。(新数据帧无法jion 队列,because no space , 而旧的数据帧无法得到处理,because no cpu for use )。
所以,在高流量负载若采用中断机制来解决问题,必须有强大的cpu处理能力,否则将会面临麻烦。
如何解决高流量负载问题?
使用中断机制来处理数据已为主流设备厂商编写驱动的套路,对于IC厂商的工程师来说,他们理因要考虑到设计驱动程序时,在使用中断资源时需要遵循礼法,不能因为当前设备正在work而抢占着资源不放,造成了其他设备的正常工作不必要的麻烦。
此外对于设备使用时所涉及的存储需要谨慎,因为设备内存数量有限,如果驱动程序不能以实时的方式处理帧,缓冲区就会被填满,而新的数据帧(或者旧的数据帧)就会被丢弃。
幸运的是,随着Linux不断的演进,已有一种新的技术可以解决以上的困境,那就是NAPI。
其原理大致是:在高流量负载情况下,驱动程序可以关闭某部分事件中断,通过轮询的方式来检测输入队列中的数据帧,然后交给内核处理函数
现已有不同变种的NAPI,定时器驱动的中断事件,其原理是:通过不同的定时粒度来产生对应的中断事件检查,这样设备接收帧是一种异步的方式被处理,但其实也是以牺牲接收帧延时为代价,针对一些应用场景网络数据实时要求不高的,此种设备驱动程序是可以满足需要的。
就像中药与西药各有利弊,中西结合之后呢,不是说药效更好,但可以说两者结合后的弊能最小化,利可以最大化。
所以,针对处理不同应用场景下流量数据的策略也需要结合。
低负载下,纯中断模型可以降低延时,高负载下,定时器驱动中断事件处理,可以较好的解决接收-活锁问题;综合以上,采用的策略,低负载情况下使用中断技术,高负载切换到定时器中断事件。
当然上面巴拉巴拉了一堆废话,具体来代码
linux-4.11.6
drivers\net\ethernet\3com\3c515.c
/* The interrupt handler does all of the Rx thread work and cleans up
after the Tx thread. */
static irqreturn_t corkscrew_interrupt(int irq, void *dev_id)
{
....
latency = inb(ioaddr + Timer); // record irq latency
....
if (status & DownComplete) {
unsigned int dirty_tx = lp->dirty_tx;
//轮询检查接收帧里面的队列是否得到处理,
//若是还没有,则丢弃掉这些旧帧,以用来空出buffer接收新的数据帧,同时启动restart transmit via netif_tx_wake_queue
while (lp->cur_tx - dirty_tx > 0)
{
int entry = dirty_tx % TX_RING_SIZE;
if (inl(ioaddr + DownListPtr) == isa_virt_to_bus(&lp->tx_ring[entry]))
break; /* It still hasn't been processed. */
if (lp->tx_skbuff[entry]) {
dev_kfree_skb_irq(lp->tx_skbuff[entry]);
lp->tx_skbuff[entry] = NULL;
}
dirty_tx++;
}
lp->dirty_tx = dirty_tx;
outw(AckIntr | DownComplete, ioaddr + EL3_CMD);
if (lp->tx_full && (lp->cur_tx - dirty_tx <= TX_RING_SIZE - 1)) {
lp->tx_full = 0;
netif_wake_queue(dev);
.....
#ifdef VORTEX_BUS_MASTER
if (status & DMADone) {
//DMA处理完成,及时释放tx_skbbuff并重新启动传输
outw(0x1000, ioaddr + Wn7_MasterStatus); /* Ack the event. */
dev_kfree_skb_irq(lp->tx_skb); /* Release the transferred buffer */
netif_wake_queue(dev);
}
#endif
}
参考
- linux 中断
- 深入理解linux网络技术内幕
- Linux-4.11.6 Souce Code
网友评论