美文网首页
Linux IO 和 epoll

Linux IO 和 epoll

作者: 黄二的NPE | 来源:发表于2018-06-30 11:43 被阅读10次
  • Linux IO

IO

我的理解是 IO是指内存和设备之间的数据交换,比如内存和硬盘的数据交换,内存和网卡的数据交换

用户空间和内核空间

现在的操作系统都是采用虚拟存储器,对于32位的操作系统而言,它的寻址空间(虚拟存储空间)为4G(2的32次方).
在这4G的存储空间里面,Linux把最高的1G字节(从虚拟地址0xC0000000到0xFFFFFFFF),供内核使用,称为内核空间;而将较低的3G字节(从虚拟地址0x00000000到0xBFFFFFFF),供各个进程使用,称为用户空间。操作系统的核心就是内核,它独立于普通的应用程序,它可以访问受保护的内存空间,也有访问底层硬件设备的所有权限。而用户进程不能直接访问内核。

用户态和内核态

CPU将指令等级分为内核态和用户态,其中内核态的指令可以访问内存所有数据以及外围设备如网卡;而用户态的指令只能访问自己的进程空间内存,不允许直接访问外围设备,用户态和内核态的指令分别占用不同的CPU。

如果用户的程序需要访问内核的资源(写文件,访问网络等),可以通过“系统调用”来完成一次用户态与内核态之间的切换,即执行一次陷阱指令,主要的工作流程如下:

  1. 用户态程序将一些数据值放在寄存器中,或使用参数创建一个堆栈,以此表明需要系统提供的服务;
  2. 用户态程序执行陷阱指令CPU切换到内核态,并跳到位于内存指定位置的指令,其中陷阱指令是系统的一部分, 他们具有内存保护,不可被用户态程序访问,他们会读取程序放入内存的数据参数,并执行程序请求的服务;
  3. 系统调用完成后, 操作系统会重置CPU为用户态并返回系统调用的结果
进程切换

主流的CPU核心在同一时间内只能运行一个线程,当一个进程用完时间片或者被更高优先级的进程抢占后,它会备份到CPU的任务队列中,同时调度其他待运行进程在CPU上运行。这里有两个概念:
任务队列:每个CPU都会维持一个任务队列,调度器会不停地根据进程的优先级从队列中调度出新进程给CPU进行运行,并将当前正在运行的进程放到任务队列中;任务队列中任务的多少反映出现目前CPU的负载情况;
进程切换:目前整个进程切换过程是通过中断技术来实现,即当CPU调度器获得了待运行进程的控制块后,立即用软中断指令来中止当前进程的运行,并保存当前进程的PC值和PSW值。其后使用压栈指令把CPU其他寄存器的值压入进程私有堆栈。然后再从待运行进程的进程控制块中取出私有堆栈指针的值并存入处理器的寄存器SP,至此SP就指向了待运行进程的私有堆栈,于是下面就自待运行进程的私有堆栈中弹出上下文进人处理器。最后,利用中断返回指令来实现自待运行进程的私有堆栈中弹出PSW值和PC值,从而完成整个切换。

  1. 保存处理机上下文,包括程序计数器和其他寄存器。
  2. 更新PCB信息。
  3. 把进程的PCB移入相应的队列,如就绪、在某事件阻塞等队列。
  4. 选择另一个进程执行,并更新其PCB。
  5. 更新内存管理的数据结构。
  6. 恢复处理机上下文。
进程的阻塞

正在执行的进程,由于期待的某些事件未发生,如请求系统资源失败、等待某种操作的完成、新数据尚未到达或无新工作做等,则由系统自动执行阻塞原语(Block),使自己由运行状态变为阻塞状态。可见,进程的阻塞是进程自身的一种主动行为,也因此只有处于运行态的进程(获得CPU),才可能将其转为阻塞状态。当进程进入阻塞状态,是不占用CPU资源的。

缓存I/O

缓存 I/O 又被称作标准 I/O,大多数文件系统的默认 I/O 操作都是缓存 I/O。在 Linux 的缓存 I/O 机制中,操作系统会将 I/O 的数据缓存在文件系统的页缓存( page cache )中,也就是说,数据会先被拷贝到操作系统内核的缓冲区中,然后才会从操作系统内核的缓冲区拷贝到应用程序的地址空间。
缺点 :
数据在传输过程中需要在应用程序地址空间和内核进行多次数据拷贝操作,这些数据拷贝操作所带来的 CPU 以及内存开销是非常大的。

  • IO模型

阻塞 IO

在linux中,默认情况下所有的socket都是blocking,一个典型的读操作流程大概是这样:


阻塞IO

当用户进程调用了recvfrom这个系统调用,kernel就开始了IO的第一个阶段:准备数据(对于网络IO来说,很多时候数据在一开始还没有到达。比如,还没有收到一个完整的UDP包。这个时候kernel就要等待足够的数据到来)。这个过程需要等待,也就是说数据被拷贝到操作系统内核的缓冲区中是需要一个过程的。而在用户进程这边,整个进程会被阻塞(当然,是进程自己选择的阻塞)。当kernel一直等到数据准备好了,它就会将数据从kernel中拷贝到用户内存,然后kernel返回结果,用户进程才解除block的状态,重新运行起来。
所以,blocking IO的特点就是在IO执行的两个阶段都被block了。

非阻塞IO

linux下,可以通过设置socket使其变为non-blocking。当对一个non-blocking socket执行读操作时,流程是这个样子:


非阻塞IO

当用户进程发出read操作时,如果kernel中的数据还没有准备好,那么它并不会block用户进程,而是立刻返回一个error。从用户进程角度讲 ,它发起一个read操作后,并不需要等待,而是马上就得到了一个结果。用户进程判断结果是一个error时,它就知道数据还没有准备好,于是它可以再次发送read操作。一旦kernel中的数据准备好了,并且又再次收到了用户进程的system call,那么它马上就将数据拷贝到了用户内存,然后返回。
所以,nonblocking IO的特点是用户进程需要不断的主动询问kernel数据好了没有。

IO多路复用

IO multiplexing就是我们说的select,poll,epoll,有些地方也称这种IO方式为event driven IO。select/epoll的好处就在于单个process就可以同时处理多个网络连接的IO。它的基本原理就是select,poll,epoll这个function会不断的轮询所负责的所有socket,当某个socket有数据到达了,就通知用户进程。


IO多路复用

当用户进程调用了select,那么整个进程会被block,而同时,kernel会“监视”所有select负责的socket,当任何一个socket中的数据准备好了,select就会返回。这个时候用户进程再调用read操作,将数据从kernel拷贝到用户进程。
所以,I/O 多路复用的特点是通过一种机制一个进程能同时等待多个文件描述符,而这些文件描述符(套接字描述符)其中的任意一个进入读就绪状态,select()函数就可以返回。

这个图和blocking IO的图其实并没有太大的不同,事实上,还更差一些。因为这里需要使用两个system call (select 和 recvfrom),而blocking IO只调用了一个system call (recvfrom)。但是,用select的优势在于它可以同时处理多个connection。
所以,如果处理的连接数不是很高的话,使用select/epoll的web server不一定比使用multi-threading + blocking IO的web server性能更好,可能延迟还更大。select/epoll的优势并不是对于单个连接能处理得更快,而是在于能处理更多的连接。)
在IO multiplexing Model中,实际中,对于每一个socket,一般都设置成为non-blocking,但是,如上图所示,整个用户的process其实是一直被block的。只不过process是被select这个函数block,而不是被socket IO给block。

异步IO

inux下的asynchronous IO其实用得很少。先看一下它的流程:


异步IO

用户进程发起read操作之后,立刻就可以开始去做其它的事。而另一方面,从kernel的角度,当它受到一个asynchronous read之后,首先它会立刻返回,所以不会对用户进程产生任何block。然后,kernel会等待数据准备完成,然后将数据拷贝到用户内存,当这一切都完成之后,kernel会给用户进程发送一个signal,告诉它read操作完成了。

  • 多路复用IO

简介

select,poll,epoll都是IO多路复用的机制。I/O多路复用就是通过一种机制,一个进程可以监视多个描述符,一旦某个描述符就绪(一般是读就绪或者写就绪),能够通知程序进行相应的读写操作。但select,poll,epoll本质上都是同步I/O,因为他们都需要在读写事件就绪后自己负责进行读写,也就是说这个读写过程是阻塞的,而异步I/O则无需自己负责进行读写,异步I/O的实现会负责把数据从内核拷贝到用户空间。

select

int select (int n, fd_set *readfds, fd_set *writefds, fd_set *exceptfds, struct timeval *timeout);
select 函数监视的文件描述符分3类,分别是writefds、readfds、和exceptfds。调用后select函数会阻塞,直到有描述副就绪(有数据 可读、可写、或者有except),或者超时(timeout指定等待时间,如果立即返回设为null即可),函数返回。当select函数返回后,可以 通过遍历fdset,来找到就绪的描述符。
select目前几乎在所有的平台上支持,其良好跨平台支持也是它的一个优点。select的一 个缺点在于单个进程能够监视的文件描述符的数量存在最大限制,在Linux上一般为1024,可以通过修改宏定义甚至重新编译内核的方式提升这一限制,但 是这样也会造成效率的降低。

epoll

使用epoll作为IO处理的程序一般会做三件事,第一,在程序启动或者某个时刻,调用epoll_create方法创建一个epoll句柄(其数据结构如下eventpoll);第二,当有新的IO到来时,epoll会调用epoll_ctl对其进行管理,epoll会把该IO对应的fd添加到eventpoll的rbr红黑树中,然后对其注册回调函数,该回调函数的作用是当fd发生中断(比如网卡的数据到了),内核会把把数据从外部设备(网卡)复制到内核中,并且把该fd添加到rdlist中;第三,程序会不停的循环遍历rblist链表,当rblist里面有数据会返回数据(准备好的fd)给用户态进程,否则会等待一个timeout时间,有新数据到来时返回新数据,timeout过后没数据也返回

struct eventpoll {
    spin_lock_t       lock;        //对本数据结构的访问
    struct mutex      mtx;         //防止使用时被删除
    wait_queue_head_t     wq;      //sys_epoll_wait() 使用的等待队列
    wait_queue_head_t   poll_wait;       //file->poll()使用的等待队列
    struct list_head    rdllist;        //事件满足条件的链表
    struct rb_root      rbr;            //用于管理所有fd的红黑树(树根)
    struct epitem      *ovflist;       //将事件到达的fd进行链接起来发送至用户空间
}

epoll操作需要三个接口:
int epoll_create(int size);
创建一个epoll的句柄,size用来告诉内核这个监听的数目一共有多大,这个参数不同于select()中的第一个参数,给出最大监听的fd+1的值,参数size并不是限制了epoll所能监听的描述符最大个数,只是对内核初始分配内部数据结构的一个建议。
当创建好epoll句柄后,它就会占用一个fd值,在linux下如果查看/proc/进程id/fd/,是能够看到这个fd的,所以在使用完epoll后,必须调用close()关闭,否则可能导致fd被耗尽。

int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
函数是对指定描述符fd执行op操作。

  • epfd:是epoll_create()的返回值。
  • op:表示op操作,用三个宏来表示:添加EPOLL_CTL_ADD,删除EPOLL_CTL_DEL,修改EPOLL_CTL_MOD。分别添加、删除和修改对fd的监听事件。
  • fd:是需要监听的fd(文件描述符)
  • epoll_event:是告诉内核需要监听什么事,struct epoll_event结构如下:
    struct epoll_event {
    __uint32_t events; /* Epoll events /
    epoll_data_t data; /
    User data variable */
    };

//events可以是以下几个宏的集合:
EPOLLIN :表示对应的文件描述符可以读(包括对端SOCKET正常关闭);
EPOLLOUT:表示对应的文件描述符可以写;
EPOLLPRI:表示对应的文件描述符有紧急的数据可读(这里应该表示有带外数据到来);
EPOLLERR:表示对应的文件描述符发生错误;
EPOLLHUP:表示对应的文件描述符被挂断;
EPOLLET: 将EPOLL设为边缘触发(Edge Triggered)模式,这是相对于水平触发(Level Triggered)来说的。
EPOLLONESHOT:只监听一次事件,当监听完这次事件之后,如果还需要继续监听这个socket的话,需要再次把这个socket加入到EPOLL队列里

int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);
等待epfd上的io事件,最多返回maxevents个事件。
参数events用来从内核得到事件的集合,maxevents告之内核这个events有多大,这个maxevents的值不能大于创建epoll_create()时的size,参数timeout是超时时间(毫秒,0会立即返回,-1将不确定,也有说法说是永久阻塞)。该函数返回需要处理的事件数目,如返回0表示已超时。

总结

在 select/poll中,进程只有在调用一定的方法后,内核才对所有监视的文件描述符进行扫描,而epoll事先通过epoll_ctl()来注册一 个文件描述符,一旦基于某个文件描述符就绪时,内核会采用类似callback的回调机制,迅速激活这个文件描述符,当进程调用epoll_wait() 时便得到通知。(此处去掉了遍历文件描述符,而是通过监听回调的的机制。这正是epoll的魅力所在。)
epoll的优点主要是一下几个方面:

  1. 监视的描述符数量不受限制,它所支持的FD上限是最大可以打开文件的数目,这个数字一般远大于2048,举个例子,在1GB内存的机器上大约是10万左 右,具体数目可以cat /proc/sys/fs/file-max察看,一般来说这个数目和系统内存关系很大。select的最大缺点就是进程打开的fd是有数量限制的。这对 于连接数量比较大的服务器来说根本不能满足。虽然也可以选择多进程的解决方案( Apache就是这样实现的),不过虽然linux上面创建进程的代价比较小,但仍旧是不可忽视的,加上进程间数据同步远比不上线程间同步的高效,所以也不是一种完美的方案。
  2. IO的效率不会随着监视fd的数量的增长而下降。epoll不同于select和poll轮询的方式,而是通过每个fd定义的回调函数来实现的。只有就绪的fd才会执行回调函数。
  3. 如果没有大量的idle -connection或者dead-connection,epoll的效率并不会比select/poll高很多,但是当遇到大量的idle- connection,就会发现epoll的效率大大高于select/poll。

相关文章

  • Linux IO 和 epoll

    Linux IO IO 我的理解是 IO是指内存和设备之间的数据交换,比如内存和硬盘的数据交换,内存和网卡的数据交...

  • epoll知识点总结

    epoll是linux IO多路复用的管理机制,现在是linux平台高性能网络io必要的组件。 理解内核epoll...

  • linux epoll解析

    linux epoll 引言 高性能网络编程避免不了与epoll打交道,epoll是一种IO多路复用技术,可以非常...

  • Linux

    linux IO复用 epoll与select的区别 水平触发和边沿触发的区别 讲一下同步异步(进程和IO) 讲一...

  • Python57_epoll实现HTTP

    ps:epoll是Linux中使用的 IO多路复用 就是我们说的select, pll, epoll,有些地方也称...

  • Android基础进阶 - 消息机制 之Native层分析

    目录 基础知识简介Linux eventfd事件等待/响应机制Linux IO多路复用epoll Android消...

  • 自己动手实现Epoll

    Epoll是Linux IO多路复用的管理机制。作为现在Linux平台高性能网络IO必要的组件。内核的实现可以参照...

  • IO多路复用

    参考资料:[1]. 聊聊Linux 五种IO模型[2]. 聊聊IO多路复用之select、poll、epoll详解...

  • IO多路复用详解

    IO多路复用详解 IO多路复用的实现方式 我们这里只讨论linux两个典型的实现,select和epoll sel...

  • 红黑树添加

    近期看io相关文章,在看到linux下epoll组织结构的时候,偶然发现epoll居然也是用红黑树作为socket...

网友评论

      本文标题:Linux IO 和 epoll

      本文链接:https://www.haomeiwen.com/subject/coiwyftx.html