美文网首页分布式集群
基于DPDK的F-Stack介绍

基于DPDK的F-Stack介绍

作者: 小叶与小茶 | 来源:发表于2018-07-28 12:06 被阅读1686次

    3月份写过一篇《DPDK的基本原理》。DPDK 是好同志,针对网络转发提供了很好的纯软理念和解决实现方案,只是有点高冷。DPDK 本身并不包含 TCP/IP 协议栈。这给大部分网络程序开发者设置了不小的门槛。

    于是,出现了一些基于 DPDK 的用户态协议栈,降低开发者的难度:

    1. mTCP
      mTCP 是一个针对多核系统的高可扩展性的用户空间 TCP/IP 协议栈。

    2. IwIP
      IwIP 是一个针对 RAM 平台的精简版的 TCP/IP 协议栈实现。

    3. Seastar
      Seastar 是一个开源的,基于 C++ 的支持高并发和低延迟的异步编程高性能库。

    4. F-Stack
      F-Stack 是一个用户态的高性能的网络接入开发包,基于DPDK、FreeBSD协议栈、微线程接口等实现的高性能网络服务器。

    再回顾一下 DPDK

    一、基于 OS 内核的转发技术有哪些问题?
    1. 局部性失效:
      网络处理服务往往运行在多核环境中。一个数据包的生命周期可能会运转在多个核上(或vCPU),比如驱动中断处理在 Core0,内核态处理在 Core1,用户态处理在 Core2,这样跨越多个核心,CPU缓存可能会失效。加上跨 NUMA 的影响,这个问题可能更加严重。

    2. 中断导致的开销和锁:
      网口收到网络报文,产生硬件中断,级别很高,可以打断相对优先级较低的软中断和其他系统调用。这些硬件中断会导致系统上下文频繁切换。同时,任务切换往往对应同步和加锁。这些都会带来严重消耗,特别是大量短连接,会导致系统性能剧烈下降。

    3. 内存多次拷贝导致的开销:
      基于 OS 内核的转发,数据包的路径是:网口 -> DMA -> 内核缓冲区(内核态驱动)-> 用户态空间。其中从“内核缓冲区”到“用户态空间”的拷贝占据整个数据包处理流程几乎一半的时间。这里正是性能下降的重要原因之一。

    二、DPDK技术带来的改变:
    1. 用户态驱动,绕过内核驱动收包,减少内存拷贝。

    DPDK 能够绕过内核协议栈,本质上是得益于 UIO 技术,通过 UIO 能够拦截中断,并重设中断回调行为,从而绕过内核协议栈后续的处理流程。

    UIO 设备的实现机制其实是对用户空间暴露文件接口,比如当注册一个 UIO 设备 uioX,就会出现文件 /dev/uioX,对该文件的读写就是对设备内存的读写。

    摘自 https://www.cnblogs.com/bakari/p/8404650.html

    1. 支持 CPU 亲和性绑定,支持对多核多线程的支撑,每个核对应一个免锁队列,减少线程调度和锁的消耗。

    DPDK 的多核处理

    摘自我的上一篇简书 https://www.jianshu.com/p/4b3d42fc5733

    1. 对 NUMA 的优化,尽量在处理时不跨 NUMA。

    2. 利用 HugePage 技术,减少 CacheMiss 的情况。

    三、腾讯 F-Stack

    如开篇所说,DPDK 不支持 TCP/IP 协议栈,相对基于 Linux 内核编程,给开发者带来不小的麻烦,门槛变高,因此基于 DPDK 技术,出现了一些用户态协议栈。腾讯开源的 F-Stack 可能是一个不错的选型。

    F-Stack 好比胶水,粘合了 DPDK 和 FreeBSD TCP/IP 协议栈,纯 C 语言编写,API 基本兼容 Socket/Epoll/Kqueue,这样更有利于原有系统的移植。

    FreeBSD 有很多成熟的网络工具,F-Stack 的重点正是基于 DPDK 来移植这些网络工具,降低使用人员的门槛。比如:

    • ifconfig:网络管理
    • netstat:网络管理
    • sysctl:网络管理
    • netgraph:通过 hook 机制,类似 Linux 下的 netfilter,关于 netfilter,可以参见 海边顽石的专栏
    • IPfw:防火墙,类似 Linux 下的 IPtabes

    F-Stack 整体架构可以从三个部分来看(参考腾讯 F-Stack 团队的官方文章 《全用户态网络开发套件 F-Stack 架构分析》):

    1. 基于 DPDK 的网络报文处理能力
      主要的能力和概念仍来自 DPDK,比如内存免拷贝、CPU核和网卡队列的绑定、免锁队列、NUMA友好等。
    • 各线程绑定独立的 CPU 内核和网卡队列(设置网卡 RSS 以散列报文),每个 NUMA 节点使用独立的内存池。
    • 使用 DPDK 轮询模式取代网卡驱动内核中断模式。
    • 使用 DPDK 用户态驱动直接对接网卡收包(UIO技术),减少内核态拷贝。
    • 设置 DPDK RSS Hash 保证报文负载均衡(IP+Port)。
    • 各线程拥有独立的表资源,通过免锁机制消除协议处理过程资源竞争。
    1. 基于 FreeBSD 的上层协议栈能力
      主要将 FreeBSD 移植到用户态,但改动不大,这样后面对 FreeBSD 的更新同步会更容易。腾讯 F-Stack 团队针对 FreeBSD 做了一些优化(参考腾讯 F-Stack 团队的官方文章 《全用户态网络开发套件 F-Stack 架构分析》
    • 内存分配优化。
    • 定时器优化。
    • 彻底移除内核线程、中断线程等,统一进行轮询处理。
    • 移除文件系统相关的绑定。
    • 移除FreeBSD内核中的所有锁。
    1. 良好的 API 兼容性能力
      提供了类 POSIX 接口和微线程框架,方便现有应用接入,替换接口。微线程框架,移植自腾讯开源的毫秒服务MSEC里使用的spp_rpc。具有同步编程、异步执行的特点,无需处理复杂的异步逻辑。

    F-Stack 的问题及优化:

    1. 由于使用 DPDK 轮询模式,CPU 使用率会一直是100%, F-Stack 会引入 DPDK 轮询 + 中断模式,当连续几次轮询没有收到包后,转为中断模式,有包后再进行轮询,直到又没包进来,循环往复。

    2. 由于DPDK接管了网卡,所有的数据包都将在用户态运行,导致常规的网络工具(如 tcpdump、ifconfig、netstat)都无法使用,于是 F-Stack 对一些工具进行了移植。抓包可以在 config.ini 里配置开启,抓包文件可以在 wireshark 里直接进行分析。

    一些优秀实践

    1. 使用性能高的多核 CPU,在 config.ini 里配置 lcore_mask 来进行核绑定,减少多核调度带来的效率下降。

    2. 使用 10G、25G、40G 多队列网卡,支持硬件卸载,支持 RSS 队列数越多越好。越容易散列开,越容易并行起来。

    3. 配置尽可能多的 HugePage。

    4. 没事不要抓包,在 config.ini 关闭抓包。


    去仰望星空

    相关文章

      网友评论

        本文标题:基于DPDK的F-Stack介绍

        本文链接:https://www.haomeiwen.com/subject/btpgmftx.html