美文网首页
高性能库DPDK精简理解

高性能库DPDK精简理解

作者: 明翼 | 来源:发表于2018-11-26 09:20 被阅读82次

    一、 前言

    才开始接触到DPDK,发现概念很多,很难以下了解,在这文章中记录下关键的内容,做到对dpdk的基本东西真正了解了。
    这样后面用它来写程序才可能顺利,不能赶进度啊,越赶进度反而可能越慢,慢慢来比较快。
    本文主要是自己理解,参考很多文章,有哪里不理解的就查,做不到精深,只了解含义。
    文章算是汇编,参考多篇文章,如有侵权,请告之,谢谢!

    二、 整体理解

    历史:
    随着计算机核数的增加,网络带宽的增加,对主机进行网络包的处理性能要求越来越高,但是现在的操作系统对网络包处理的方式很低效。
    低效表现在:
    1)网络数据包来了之后通过中断模式进行通知,而cpu处理中断的能力是一定的,如果网络中有大量的小数据包,造成了网络的拥堵,cpu处理不及时。
    【以前cpu的频率远高于网络设备,所以中断很有效】
    2)操作系统的协议栈是单核处理,没办法利用现在操作系统的多核。
    3)网络数据包从网卡到内核空间,再到用户空间,进行了多次数据拷贝,性能比较差。
    DPDK 全称 Data Plane Development Kit 专注于数据面的软件开发套件,是专为Intel的网络芯片开发,运行于Linux和FreeBsd上。
    DPDK改变了传统的网络数据包的处理方式,在用户空间直接处理,图示如下:


    传统VSDPDK抓包方式

    三、 重要概念理解

    这里面说明DPDK文档里面的主要概念,另外如何将概念与实际的我们自己的机器上参数对应起来。

    3.1 PPS:包转发率

    即1s可以发送多个frame、在以太网里面为以太帧,我们常说的接口带宽为1Gbits/s 、10Gbits/s 代表以太接口能够传输的最高速率,单位为(bit per second 位/秒)
    实际上,传输过程中,帧之间有间距(12个字节),每个帧前面还有前导(7个字节)、帧首界定符(1个字节)。
    帧理论转发率= BitRate/8 / (帧前导+帧间距+帧首界定符+报文长度)

    以太帧传输中结构

    按照10Gbits/s (没记错的话是万兆光纤)来计算下64个字节下的包的转发率。


    最短帧大小

    101024102410241024/(12+7+1+64) 8 约等于 1000M10 /(12+7+1+64) *8 = 14.880952380952381 M/PPS (百万数据包)
    也就是1s可以发送 1千400万个数据包。
    注意,这里面的Data长度是在46-1500个字节之间,所以最小的帧的长度为 : 6+6+2+46+4 = 64个字节。
    线速:网卡或网络支持的最极限速度。
    汇总数据:

    网卡的限速
    arrival为每个数据包之间的时间间隔。
    rte:runtime environment 即运行环境。
    eal: environment abstraction layer 即抽象环境层。

    3.2 UIO:用户空间IO

    小的内核模块,用于将设备内存映射到用户空间,并且注册中断。
    uio_pci_generic 为linux 内核模块,提供此功能,可以通过 modprobe uio_pci_generic 加载。
    但是其不支持虚拟功能,DPDK,提供一个替代模块 igb_uio模块,通过
    sudo modprobe uio
    sudo insmod kmod/igb_uio.ko
    命令加载。

    3.3 VFIO

    VFIO是一个可以安全的吧设备IO、中断、DMA等暴露到用户空间(usespace),从而在用户空间完成设备驱动的框架。用户空间直接访问设备,虚拟设备的分配可以获得更高的IO性能。
    参考(https://blog.csdn.net/wentyoon/article/details/60144824
    sudo modprobe vfio-pci
    命令加载vfio驱动。
    1.将两个82599以太网绑定到VFIO ./tools/dpdk_nic_bind.py -b vfio-pci 03:00.0 03:00.1
    3.将82599 ehter绑定到IGB_UIO ./tools/dpdk_nic_bind.py -b igb_uio 03:00.0 03:00.1
    可参看:http://www.cnblogs.com/vancasola/p/9378970.html 进行配置vfio驱动模式。
    两者都是用户空间的网卡驱动模块,只是据说UIO依赖IOMMU,VFIO性能更好,更安全,不过必须系统和BSIO支持
    通过工具查看现在的绑定情况:

    查看现在的绑定

    说明: 以上driv谁说明在使用的网卡驱动,后面unused为未使用可以兼容的网卡驱动。
    绑定命令:
    ./dpdk-devbind.py --bind=ixgbe 01:00.0

    绑定网卡和驱动
    注意在DPDK的驱动情况下,用ifconfig是看不到网卡的。

    3.5 PMD

    PMD, Poll Mode Driver 即轮询驱动模式 ,DPDK用这种轮询的模式替换中断模式

    3.6 RSS

    RSS(Receive Side Scaling)是一种能够在多处理器系统下使接收报文在多个CPU之间高效分发的网卡驱动技术。

    网卡对接收到的报文进行解析,获取IP地址、协议和端口五元组信息
    网卡通过配置的HASH函数根据五元组信息计算出HASH值,也可以根据二、三或四元组进行计算。
    取HASH值的低几位(这个具体网卡可能不同)作为RETA(redirection table)的索引
    根据RETA中存储的值分发到对应的CPU
    DPDK支持设置静态hash值和配置RETA。 不过DPDK中RSS是基于端口的,并根据端口的接收队列进行报文分发的。 例如我们在一个端口上配置了3个接收队列(0,1,2)并开启了RSS,那么 中就是这样的:

    {0,1,2,0,1,2,0.........}

    运行在不同CPU的应用程序就从不同的接收队列接收报文,这样就达到了报文分发的效果。
    在DPDK中通过设置rte_eth_conf中的mq_mode字段来开启RSS功能, rx_mode.mq_mode = ETH_MQ_RX_RSS。
    当RSS功能开启后,报文对应的rte_pktmbuf中就会存有RSS计算的hash值,可以通过pktmbuf.hash.rss来访问。 这个值可以直接用在后续报文处理过程中而不需要重新计算hash值,如快速转发,标识报文流等。

    3.7 对称RSS

    在网络应用中,如果同一个连接的双向报文在开启RSS之后被分发到同一个CPU上处理,这种RSS就称为对称RSS。 DPDK的hash算法没办法做到这一点,
    对我们需要解析http报文,那么请求和访问如果采用普通的rss就造成了发送和返回报文无法匹配的问题,如果dpdk要支持需要替换其Hash算法。

    3.8 NUMA架构

    NUMA(Non-Uniform Memory Architecture 非一致性内存架构)系统。
    特点是每个处理器都有本地内存、访问本地的内存块,访问其他处理器对应的内存需要通过总线,慢。

    NUMA架构 经典计算机架构

    3.9 Hugepages大页内存

    操作系统中,内存分配是按照页为单位分配的,页面的大小一般为4kB,如果页面大小固定内存越大,对应的页项越多,通过多级内存访问越慢,TLB方式访问内存更快,
    但是TLB存储的页项不多,所以需要减少页面的个数,那么就通过增加页面大小的办法,增大内存页大小到2MB或1GB等。
    DPDK主要分为2M和1G两种页面,具体支持要靠CPU,可以从cpu的flags里面看出来,举个例子:
    如果flags里面有pse标识,标识支持2M的大内存页面;
    如果有pdge1gb 标识,说明支持1G的大内存页。


    cpu的大页支持 查看内存大页信息

    四 重要模块划分

    以下为重要的内核模块划分。


    重要模块划分

    未完待续

    相关文章

      网友评论

          本文标题:高性能库DPDK精简理解

          本文链接:https://www.haomeiwen.com/subject/ahevqqtx.html