谈谈背景
第一次接触零拷贝,噼里啪啦各种杂谈概念内核、上下文切换、DMA、MMAP....看了不少文章,不知道你是否也觉得是云里雾里,缠绕不清。也许把一件事情说清楚,首先要贴近程序员能够感触到的“0距离”的场景。
也许你觉得零拷贝是面试大纲中常见的一纲,毫无用处。但你每天确实都在接触它,你却并未发现它。比如:rocketMQ、Kafka的消费者。
你细品,为什么这两者会涉及到零拷贝呢?拷贝——Ctrl+C
再熟悉不过的骚操作。
消费者发起消费的过程是这样的:将数据从磁盘读取出来,通过网络传输传递给消费者。而这其中将数据从磁盘到网卡的过程,就是数据拷贝。数据移动肯定需要资源消耗,比如CPU、上下文切换等。然而简简单单的数据拷贝的过程,内部的数据流动并不简单。因此看了下面的介绍,你一定会明白为什么要零拷贝?
传统的IO拷贝
举例
以下是消费者消费数据为例,为了模拟数据从磁盘到网卡的过程,我借用一段代码,让Java同学能感受到我们在做什么,更确切的说,我们是在解释为什么传统IO不是很理想:
// 模拟读取topic_data.db这个数据文件
File file = new File("D://topic_data.db");
RandomAccessFile raf = new RandomAccessFile(file, "rw");
byte[] arr = new byte[(int) file.length()];
raf.read(arr);
// 将读取的字节码通过socket传输出去
Socket socket = new ServerSocket(8080).accept();
socket.getOutputStream().write(arr);
图文说明
以下是我结合网上资料,手绘了一张传统IO读写的流程图,来解释上述代码的执行流程:
image.png
内核空间与用户空间
:为了保证内核的安全,现在的操作系统一般都强制用户进程不能直接操作内核。具体的实现方式基本都是由操作系统将虚拟地址空间划分为两部分,一部分为内核空间,另一部分为用户空间。
读流程和写流程大致是这样的,如果不是特别好理解,建议强迫记忆,因为这是以下能够继续探究的基础:
- 应用程序调用内核指令读取文件。
- 文件通过DMA控制器拷贝到内核缓冲区(
ReadBuffer
) - cpu将内核缓存冲区的数据拷贝到应用程序缓冲区。
- cpu将应用程序缓冲区的数据拷贝到内核缓冲区(
SocketBuffer
) - 通过DMA控制器将数据拷贝至网卡
- 拷贝完成后,通知应用程序。
那么,DMA又是个啥?DMA这东东翻译过来叫直接内存访问
,顾名思义,直接访问到内存。你想想,将数据从一块区域拷贝到另外一块区域,cpu肯定得负责搬运。而这个DMA的诞生让cpu尽量不参与搬运,更多的时间去处理其他的事情。你可以参考正规的解释:
Direct Memory Access(存储器直接访问)。这是指一种高速的数据传输操作,允许在外部设备和存储器之间直接读写数据。整个数据传输操作在一个称为"DMA控制器"的控制下进行的。CPU除了在数据传输开始和结束时做一点处理外(开始和结束时候要做中断处理),在传输过程中CPU可以进行其他的工作(前提是未设置停止CPU访问)。这样,在大部分时间里,CPU和输入输出都处于并行操作。因此,使整个计算机系统的效率大大提高。
探究细节
简单的流程梳理,我们对一些细节做下统计:
- 上下文切换次数(图1中的粉色圆圈):
4次
- 数据拷贝次数(图1中的绿色圆圈):
4次
- cpu参与次数:
2次
很明显,每次操作都需要内核及硬件的成本付出,如何减少对应的次数就是零拷贝
真正要解决的问题。
上下文切换
为什么用户空间切换到内核空间开销比较大?甚至有人叫这破玩意叫上下文切换?我摘抄一段文字。你可以磨一磨、品一品:
当程序中有系统调用语句,程序执行到系统调用时,首先使用类似int 80H的软中断指令,保存现场,去系统调用,在内核态执行,然后恢复现场,每个进程都会有两个栈,一个内核态栈和一个用户态栈。当int中断执行时就会由用户态栈转向内核态栈。系统调用时需要进行栈的切换。而且内核代码对用户不信任,需要进行额外的检查。系统调用的返回过程有很多额外工作,比如检查是否需要调度等。
系统调用一般都需要保存用户程序的上下文(context), 在进入内核的时候需要保存用户态的寄存器,在内核态返回用户态的时候会恢复这些寄存器的内容。这是一个开销的地方。 如果需要在不同用户程序间切换的话,那么还要更新cr3寄存器,这样会更换每个程序的虚拟内存到物理内存映射表的地址,也是一个比较高负担的操作。
再谈零拷贝
讲了这么多传统IO,目的是为了理解零拷贝做铺垫,零拷贝是基于传统IO的改进版。
在开始之前,我们先看看什么是虚拟内存地址:
虚拟内存地址
所有现代操作系统都使用虚拟内存,使用虚拟地址取代物理地址,这样做的好处就是:
1、多个虚拟内存可以指向同一个物理地址
2、虚拟内存空间可以远远大于物理内存空间
如果把图1
中内核空间
和用户空间
的虚拟地址映射到同一个物理地址,就不需要cpu将数据在内核空间
和用户空间
来回拷贝。
mmap+write与sendfile
mmap+write就是利用虚拟内存地址的方式,减少内核空间和用户空间的数据拷贝,从而减少数据拷贝次数。我们看下mmap+write的读写流程:
image.png从上图可以看出,mmap与传统IO读流程的区别只是在内核空间与用户空间数据采用的虚拟内存地址的方式共享内存,减少了一次Cpu的数据拷贝,然而,上下文切换次数并未减少。
write()流程如下:
image.png由于应用程序缓冲区与内核缓冲区共享内存,cpu
只需要将ReadBuffer
数据拷贝到SocketBuffer
。
那么,来综合看下mmap+write的方式成本消耗如何?
- 上下文切换次数:
4次
- 数据拷贝次数:
3次
- cpu参与次数:
1次
mmap+write
相对传统Io,减少了一次cpu的数据拷贝,然而上下文切换次数并没有减少,你试想一下,如果应用程序与内核只做一次交互不就可以减少2次上下文切换,因此,sendfile()
相对mmap()+write()
就是做了这一点的结合性改善。参考下图(盗图一张,不留名,嘿嘿):
写在最后
说了这么多传统IO、mmap以及sendfile,我们来做下比对:
-
传统 IO 执行的话需要 4 次上下文切换(用户态 -> 内核态 -> 用户态 -> 内核态 -> 用户态)和 4 次拷贝(磁盘文件 DMA 拷贝到内核缓冲区,内核缓冲区 CPU 拷贝到用户缓冲区,用户缓冲区 CPU 拷贝到 Socket 缓冲区,Socket 缓冲区 DMA 拷贝到协议引擎)。
-
mmap 将磁盘文件映射到内存,支持读和写,对内存的操作会反映在磁盘文件上,适合小数据量读写,需要 4 次上下文切换(用户态 -> 内核态 -> 用户态 -> 内核态 -> 用户态)和3 次拷贝(磁盘文件DMA拷贝到内核缓冲区,内核缓冲区 CPU 拷贝到 Socket 缓冲区,Socket 缓冲区 DMA 拷贝到协议引擎)。
-
sendfile 是将读到内核空间的数据,转到 socket buffer,进行网络发送,适合大文件传输,只需要 2 次上下文切换(用户态 -> 内核态 -> 用户态)和 2 次拷贝(磁盘文件 DMA 拷贝到内核缓冲区,内核缓冲区 DMA 拷贝到协议引擎)。
此外,零拷贝其实也没有真正意义上的清零,只是相对传统IO进行了性能优化:
- 1.采用虚拟内存地址的方式共享内存,减少内核与用户空间数据拷贝的次数。
- 2.拷贝次数的减少,间接减少了cpu的参与次数。
- 3.sendfile这种方式减少了上下文切换的次数。
- 4.同时,DMA控制也是一种减少cpu参与数据拷贝的方式。
因此,减少数据拷贝
、CPU参与
、上下文切换
才是零拷贝最具灵魂、最绝的一笔!
作者介绍
keaizhuzhu,公众号面试怪圈
小编,网站面试怪圈
站长,曾就职于阿里巴巴本地生活,目前就职于京东做后端开发。
编写过《Java面试怪圈内卷手册》
面试秘籍,全网阅读量过万次。
官网:http://www.msgqer.com
。旨在分享前端、后端、大数据、各种中间件技术的面试资料,总访问量数万次。点击【阅读原文】可直达。
Java后端在线面试题
地址:http://www.msgqer.com/case/fwCase
网友评论