美文网首页各种IOCSandroid驱动开发
I/O模型之二:Linux IO模式及 select、poll、

I/O模型之二:Linux IO模式及 select、poll、

作者: faunjoe | 来源:发表于2018-04-29 13:26 被阅读164次

    本文讨论的背景是Linux环境下的network IO。

    一、 概念说明

    在进行解释之前,首先要说明几个概念:

    • 用户空间和内核空间
    • 进程切换
    • 进程的阻塞
    • 文件描述符
    • 缓存 I/O
    1.1、用户空间与内核空间

    现在操作系统都是采用虚拟存储器,那么对32位操作系统而言,它的寻址空间(虚拟存储空间)为4G(2的32次方)。操作系统的核心是内核,独立于普通的应用程序,可以访问受保护的内存空间,也有访问底层硬件设备的所有权限。为了保证用户进程不能直接操作内核(kernel),保证内核的安全,操心系统将虚拟空间划分为两部分,一部分为内核空间,一部分为用户空间。针对linux操作系统而言,将最高的1G字节(从虚拟地址0xC0000000到0xFFFFFFFF),供内核使用,称为内核空间,而将较低的3G字节(从虚拟地址0x00000000到0xBFFFFFFF),供各个进程使用,称为用户空间。

    1.2、进程切换

    为了控制进程的执行,内核必须有能力挂起正在CPU上运行的进程,并恢复以前挂起的某个进程的执行。这种行为被称为进程切换。因此可以说,任何进程都是在操作系统内核的支持下运行的,是与内核紧密相关的。

    从一个进程的运行转到另一个进程上运行,这个过程中经过下面这些变化:
    1. 保存处理机上下文,包括程序计数器和其他寄存器。
    2. 更新PCB信息。
    3. 把进程的PCB移入相应的队列,如就绪、在某事件阻塞等队列。
    4. 选择另一个进程执行,并更新其PCB。
    5. 更新内存管理的数据结构。
    6. 恢复处理机上下文。

    注:总而言之就是很耗资源,具体的可以参考这篇文章:进程切换

    1.3、进程的阻塞

    正在执行的进程,由于期待的某些事件未发生,如请求系统资源失败、等待某种操作的完成、新数据尚未到达或无新工作做等,则由系统自动执行阻塞原语(Block),使自己由运行状态变为阻塞状态。可见,进程的阻塞是进程自身的一种主动行为,也因此只有处于运行态的进程(获得CPU),才可能将其转为阻塞状态。当进程进入阻塞状态,是不占用CPU资源的。

    1.4、文件描述符fd

    文件描述符(File descriptor)是计算机科学中的一个术语,是一个用于表述指向文件的引用的抽象化概念。

    文件描述符在形式上是一个非负整数。实际上,它是一个索引值,指向内核为每一个进程所维护的该进程打开文件的记录表。当程序打开一个现有文件或者创建一个新文件时,内核向进程返回一个文件描述符。在程序设计中,一些涉及底层的程序编写往往会围绕着文件描述符展开。但是文件描述符这一概念往往只适用于UNIX、Linux这样的操作系统。

    1.5、缓存 I/O

    缓存 I/O 又被称作标准 I/O,大多数文件系统的默认 I/O 操作都是缓存 I/O。在 Linux 的缓存 I/O 机制中,操作系统会将 I/O 的数据缓存在文件系统的页缓存( page cache )中,也就是说,数据会先被拷贝到操作系统内核的缓冲区中,然后才会从操作系统内核的缓冲区拷贝到应用程序的地址空间。
    缓存 I/O 的缺点:
    数据在传输过程中需要在应用程序地址空间和内核进行多次数据拷贝操作,这些数据拷贝操作所带来的 CPU 以及内存开销是非常大的。

    二、 IO模式

    刚才说了,对于一次IO访问(以read举例),数据会先被拷贝到操作系统内核的缓冲区中,然后才会从操作系统内核的缓冲区拷贝到应用程序的地址空间。所以说,当一个read操作发生时,它会经历两个阶段:

    1. 等待数据准备 (Waiting for the data to be ready)
    2. 将数据从内核拷贝到进程中 (Copying the data from the kernel to the process)
      正式因为这两个阶段,linux系统产生了下面五种网络模式的方案。
    • 阻塞 I/O(blocking IO)
    • 非阻塞 I/O(nonblocking IO)
    • I/O 多路复用( IO multiplexing)
    • 信号驱动 I/O( signal driven IO)
    • 异步 I/O(asynchronous IO)
      注:由于signal driven IO在实际中并不常用,所以我这只提及剩下的四种IO Model。

    三、 I/O 多路复用之select、poll、epoll详解

    select,poll,epoll都是IO多路复用的机制。I/O多路复用就是通过一种机制,一个进程可以监视多个描述符,一旦某个描述符就绪(一般是读就绪或者写就绪),能够通知程序进行相应的读写操作。但select,poll,epoll本质上都是同步I/O,因为他们都需要在读写事件就绪后自己负责进行读写,也就是说这个读写过程是阻塞的,而异步I/O则无需自己负责进行读写,异步I/O的实现会负责把数据从内核拷贝到用户空间。(这里啰嗦下)

    3.1、select

    select是1983年的4.2BSD提出。系统在select用32*32=1024位来进行查询。返回的时候数组如readfds是已经处理过的了,返回时只有准备好事件的fd。所以需要轮训(要用FD_ISSET挨个比较)和重新赋值。FD_ISSET(fd,&readfds)

    int select (int n, fd_set *readfds, fd_set *writefds, fd_set *exceptfds, struct timeval *timeout);
    

    select 函数监视的文件描述符分3类,分别是writefds、readfds、和exceptfds。调用后select函数会阻塞,直到有描述符就绪(有数据 可读、可写、或者有except),或者超时(timeout指定等待时间,如果立即返回设为null即可),函数返回。当select函数返回后,可以 通过遍历fdset,来找到就绪的描述符。

    使用方法总共分三步:

    1.三个fd_set初始化,用FD_ZERO FD_SET
    2.调用select
    3.用fd遍历每一个fd_set使用FD_ISSET。如果成功就处理。

    select目前几乎在所有的平台上支持,其良好跨平台支持也是它的一个优点。select的一个缺点在于单个进程能够监视的文件描述符的数量存在最大限制,在Linux上一般为1024,可以通过修改宏定义甚至重新编译内核的方式提升这一限制,但 是这样也会造成效率的降低。

    3.2、poll
    int poll (struct pollfd *fds, unsigned int nfds, int timeout);
    

    不同与select使用三个位图来表示三个fdset的方式,poll使用一个 pollfd的指针实现。

    struct pollfd {
        int fd; /* file descriptor */
        short events; /* requested events to watch */
        short revents; /* returned events witnessed */
    };
    

    pollfd结构包含了要监视的event和发生的event,不再使用select“参数-值”传递的方式。同时,pollfd并没有最大数量限制(但是数量过大后性能也是会下降)。 和select函数一样,poll返回后,需要轮询pollfd来获取就绪的描述符。
    从上面看,select和poll都需要在返回后,通过遍历文件描述符来获取已经就绪的socket。事实上,同时连接的大量客户端在一时刻可能只有很少的处于就绪状态,因此随着监视的描述符数量的增长,其效率也会线性下降。
    也是分三步
    1.pollfd初始化,绑定sock,设置事件event,revent。设置时间限制。
    2.调用poll
    3.遍历看他的事件发生了么,如果发生了置0。

    3.3、epoll

    epoll:一次循环
    epoll是在2.6内核中提出的,是之前的select和poll的增强版本。而且只在linux下支持。相对于select和poll来说,epoll更加灵活,没有描述符限制。epoll使用一个文件描述符管理多个描述符,将用户关系的文件描述符的事件存放到内核的一个事件表中,这样在用户空间和内核空间的copy只需一次。
    epoll是直接在内核里的,用户调用系统调用去注册,因此省去了每次的复制和轮询的消耗。这儿用了三个系统调用,epollcreate只要每次调用开始调用一次创造一个epoll就可以了。然后用epoll_ctl来进行添加事件,其实就是注册到内核管理的epoll里。然后直接epoll_wait就可以了。系统会返回系统调用的。
    使用方法
    1.准备工作多了,很复杂,这个记录数据在内核里。
    1)构建epoll描述符,通过调用epoll_create
    2)用需要的时间和上下文数据指针初始化。
    3)调用epoll_ctl 添加文件描述符。
    4)调用epoll_wait每次处理20个事件。这儿是接收一个空数组,然后填上东西。也就是有200个东西过来,我可能只填了一个。当然如果50个完成了也是回复20.剩下的不会被漏掉,下次再来处理。
    5)遍历返回的数据。注意这儿返回的都是有用的东西。

    3.3.1、 epoll操作过程

    epoll操作过程需要三个接口,分别如下:

    int epoll_create(int size);//创建一个epoll的句柄,size用来告诉内核这个监听的数目一共有多大
    int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
    int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);
    
    1. int epoll_create(int size);
      创建一个epoll的句柄,size用来告诉内核这个监听的数目一共有多大,这个参数不同于select()中的第一个参数,给出最大监听的fd+1的值,参数size并不是限制了epoll所能监听的描述符最大个数,只是对内核初始分配内部数据结构的一个建议。
      当创建好epoll句柄后,它就会占用一个fd值,在linux下如果查看/proc/进程id/fd/,是能够看到这个fd的,所以在使用完epoll后,必须调用close()关闭,否则可能导致fd被耗尽。

    2. int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);
      函数是对指定描述符fd执行op操作。

    • epfd:是epoll_create()的返回值。
    • op:表示op操作,用三个宏来表示:添加EPOLL_CTL_ADD,删除EPOLL_CTL_DEL,修改EPOLL_CTL_MOD。分别添加、删除和修改对fd的监听事件。
    • fd:是需要监听的fd(文件描述符)
    • epoll_event:是告诉内核需要监听什么事,struct epoll_event结构如下:

    struct epoll_event {
    __uint32_t events; /* Epoll events /
    epoll_data_t data; /
    User data variable */
    };
    //events可以是以下几个宏的集合:
    EPOLLIN :表示对应的文件描述符可以读(包括对端SOCKET正常关闭);
    EPOLLOUT:表示对应的文件描述符可以写;
    EPOLLPRI:表示对应的文件描述符有紧急的数据可读(这里应该表示有带外数据到来);
    EPOLLERR:表示对应的文件描述符发生错误;
    EPOLLHUP:表示对应的文件描述符被挂断;
    EPOLLET: 将EPOLL设为边缘触发(Edge Triggered)模式,这是相对于水平触发(Level Triggered)来说的。
    EPOLLONESHOT:只监听一次事件,当监听完这次事件之后,如果还需要继续监听这个socket的话,需要再次把这个socket加入到EPOLL队列里

    1. int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);
      等待epfd上的io事件,最多返回maxevents个事件。
      参数events用来从内核得到事件的集合,maxevents告之内核这个events有多大,这个maxevents的值不能大于创建epoll_create()时的size,参数timeout是超时时间(毫秒,0会立即返回,-1将不确定,也有说法说是永久阻塞)。该函数返回需要处理的事件数目,如返回0表示已超时。
    epoll操作代码演示
    #define IPADDRESS   "127.0.0.1"
    #define PORT        8787
    #define MAXSIZE     1024
    #define LISTENQ     5
    #define FDSIZE      1000
    #define EPOLLEVENTS 100
    
    listenfd = socket_bind(IPADDRESS,PORT);
    
    struct epoll_event events[EPOLLEVENTS];
    
    //创建一个描述符
    epollfd = epoll_create(FDSIZE);
    
    //添加监听描述符事件
    add_event(epollfd,listenfd,EPOLLIN);
    
    //循环等待
    for ( ; ; ){
        //该函数返回已经准备好的描述符事件数目
        ret = epoll_wait(epollfd,events,EPOLLEVENTS,-1);
        //处理接收到的连接
        handle_events(epollfd,events,ret,listenfd,buf);
    }
    
    //事件处理函数
    static void handle_events(int epollfd,struct epoll_event *events,int num,int listenfd,char *buf)
    {
         int i;
         int fd;
         //进行遍历;这里只要遍历已经准备好的io事件。num并不是当初epoll_create时的FDSIZE。
         for (i = 0;i < num;i++)
         {
             fd = events[i].data.fd;
            //根据描述符的类型和事件类型进行处理
             if ((fd == listenfd) &&(events[i].events & EPOLLIN))
                handle_accpet(epollfd,listenfd);
             else if (events[i].events & EPOLLIN)
                do_read(epollfd,fd,buf);
             else if (events[i].events & EPOLLOUT)
                do_write(epollfd,fd,buf);
         }
    }
    
    //添加事件
    static void add_event(int epollfd,int fd,int state){
        struct epoll_event ev;
        ev.events = state;
        ev.data.fd = fd;
        epoll_ctl(epollfd,EPOLL_CTL_ADD,fd,&ev);
    }
    
    //处理接收到的连接
    static void handle_accpet(int epollfd,int listenfd){
         int clifd;     
         struct sockaddr_in cliaddr;     
         socklen_t  cliaddrlen;     
         clifd = accept(listenfd,(struct sockaddr*)&cliaddr,&cliaddrlen);     
         if (clifd == -1)         
         perror("accpet error:");     
         else {         
             printf("accept a new client: %s:%d\n",inet_ntoa(cliaddr.sin_addr),cliaddr.sin_port);                       //添加一个客户描述符和事件         
             add_event(epollfd,clifd,EPOLLIN);     
         } 
    }
    
    //读处理
    static void do_read(int epollfd,int fd,char *buf){
        int nread;
        nread = read(fd,buf,MAXSIZE);
        if (nread == -1)     {         
            perror("read error:");         
            close(fd); //记住close fd        
            delete_event(epollfd,fd,EPOLLIN); //删除监听 
        }
        else if (nread == 0)     {         
            fprintf(stderr,"client close.\n");
            close(fd); //记住close fd       
            delete_event(epollfd,fd,EPOLLIN); //删除监听 
        }     
        else {         
            printf("read message is : %s",buf);        
            //修改描述符对应的事件,由读改为写         
            modify_event(epollfd,fd,EPOLLOUT);     
        } 
    }
    
    //写处理
    static void do_write(int epollfd,int fd,char *buf) {     
        int nwrite;     
        nwrite = write(fd,buf,strlen(buf));     
        if (nwrite == -1){         
            perror("write error:");        
            close(fd);   //记住close fd       
            delete_event(epollfd,fd,EPOLLOUT);  //删除监听    
        }else{
            modify_event(epollfd,fd,EPOLLIN); 
        }    
        memset(buf,0,MAXSIZE); 
    }
    
    //删除事件
    static void delete_event(int epollfd,int fd,int state) {
        struct epoll_event ev;
        ev.events = state;
        ev.data.fd = fd;
        epoll_ctl(epollfd,EPOLL_CTL_DEL,fd,&ev);
    }
    
    //修改事件
    static void modify_event(int epollfd,int fd,int state){     
        struct epoll_event ev;
        ev.events = state;
        ev.data.fd = fd;
        epoll_ctl(epollfd,EPOLL_CTL_MOD,fd,&ev);
    }
    
    //注:另外一端我就省了
    

    epoll总结

    在 select/poll中,进程只有在调用一定的方法后,内核才对所有监视的文件描述符进行扫描,而epoll事先通过epoll_ctl()来注册一 个文件描述符,一旦基于某个文件描述符就绪时,内核会采用类似callback的回调机制,迅速激活这个文件描述符,当进程调用epoll_wait() 时便得到通知。(此处去掉了遍历文件描述符,而是通过监听回调的的机制。这正是epoll的魅力所在。)

    epoll的优点主要是一下几个方面:

    • 监视的描述符数量不受限制,它所支持的FD上限是最大可以打开文件的数目,这个数字一般远大于2048,举个例子,在1GB内存的机器上大约是10万左 右,具体数目可以cat /proc/sys/fs/file-max察看,一般来说这个数目和系统内存关系很大。select的最大缺点就是进程打开的fd是有数量限制的。这对 于连接数量比较大的服务器来说根本不能满足。虽然也可以选择多进程的解决方案( Apache就是这样实现的),不过虽然linux上面创建进程的代价比较小,但仍旧是不可忽视的,加上进程间数据同步远比不上线程间同步的高效,所以也不是一种完美的方案。
    • IO的效率不会随着监视fd的数量的增长而下降。epoll不同于select和poll轮询的方式,而是通过每个fd定义的回调函数来实现的。只有就绪的fd才会执行回调函数。
    • 如果没有大量的idle -connection或者dead-connection,epoll的效率并不会比select/poll高很多,但是当遇到大量的idle- connection,就会发现epoll的效率大大高于select/poll。

    select,poll,epoll区别

    select的缺点:
    单个进程能够监视的文件描述符的数量存在最大限制,通常是1024,当然可以更改数量,但由于select采用轮询的方式扫描文件描述符,文件描述符数量越多,性能越差;(在linux内核头文件中,有这样的定义:#define __FD_SETSIZE 1024)
    内核 / 用户空间内存拷贝问题,select需要复制大量的句柄数据结构,产生巨大的开销;
    select返回的是含有整个句柄的数组,应用程序需要遍历整个数组才能发现哪些句柄发生了事件;
    select的触发方式是水平触发,应用程序如果没有完成对一个已经就绪的文件描述符进行IO操作,那么之后每次select调用还是会将这些文件描述符通知进程。
    poll:
    优势:
    1.无上限1024。
    2.由于它不修改pollfd里的数据,所以它可以不用每次都填写了。
    3.方便的知道远程的状态比如宕机
    缺点:
    1、还要轮巡
    2、不能动态修改set。
    其实大多数client不用考虑这个,除非p2p应用。一些server端用不用考虑这个问题。
    大多时候他都比select更好。甚至如下场景比epoll还好:
    你要跨平台,因为epoll只支持linux。
    socket数目少于1000个。
    大于1000但是是socket寿命比较短。
    没有其他线程干扰的时候。
    相比select模型,poll使用链表保存文件描述符,因此没有了监视文件数量的限制,但select三个缺点依然存在。

    拿select模型为例,假设我们的服务器需要支持100万的并发连接,则在__FD_SETSIZE 为1024的情况下,则我们至少需要开辟1k个进程才能实现100万的并发连接。除了进程间上下文切换的时间消耗外,从内核/用户空间大量的无脑内存拷贝、数组轮询等,是系统难以承受的。因此,基于select模型的服务器程序,要达到10万级别的并发访问,是一个很难完成的任务。
    epoll:
    优点:
    1.只返回触发的事件。少了拷贝消耗,迭代轮训消耗。
    2.可以绑定更多上下文,不仅仅是socket。
    3.任何时间处理socket。这些问题都是有内核来处理。了。这个还需要继续学习啊。
    4.可以边缘触发。
    5.多线程可以在同一个epoll wait里等待。
    缺点:
    1.读写状态变更之类的就要麻烦些,在poll里只要改一个bit就可以了。在这里面则需要改更多的位数。并且都是system call。
    2.创建socket也需要两次系统调用,麻烦。
    3.只有linux下可以使用
    4.复杂难调试
    适合场景
    1.多线程,多连接。在单线程还不如poll
    2.大量线程监控1000上,
    3.相对长寿命的连接。系统调用会很耗时。
    4.linux依赖的事情。

    epoll IO多路复用模型实现机制

    由于epoll的实现机制与select/poll机制完全不同,上面所说的 select的缺点在epoll上不复存在。
    设想一下如下场景:有100万个客户端同时与一个服务器进程保持着TCP连接。而每一时刻,通常只有几百上千个TCP连接是活跃的(事实上大部分场景都是这种情况)。如何实现这样的高并发?
    select/poll时代,服务器进程每次都把这100万个连接告诉操作系统(从用户态复制句柄数据结构到内核态),让操作系统内核去查询这些套接字上是否有事件发生,轮询完后,再将句柄数据复制到用户态,让服务器应用程序轮询处理已发生的网络事件,这一过程资源消耗较大,因此,select/poll一般只能处理几千的并发连接。
    epoll的设计和实现与select完全不同。epoll通过在Linux内核中申请一个简易的文件系统(文件系统一般用什么数据结构实现?B+树)。把原先的select/poll调用分成了3个部分:
    1)调用epoll_create()建立一个epoll对象(在epoll文件系统中为这个句柄对象分配资源)
    2)调用epoll_ctl向epoll对象中添加这100万个连接的套接字
    3)调用epoll_wait收集发生的事件的连接
    如此一来,要实现上面说是的场景,只需要在进程启动时建立一个epoll对象,然后在需要的时候向这个epoll对象中添加或者删除连接。同时,epoll_wait的效率也非常高,因为调用epoll_wait时,并没有一股脑的向操作系统复制这100万个连接的句柄数据,内核也不需要去遍历全部的连接。
    下面来看看Linux内核具体的epoll机制实现思路
    当某一进程调用epoll_create方法时,Linux内核会创建一个eventpoll结构体,这个结构体中有两个成员与epoll的使用方式密切相关。eventpoll结构体如下所示:

    struct eventpoll{  
        ....  
        /*红黑树的根节点,这颗树中存储着所有添加到epoll中的需要监控的事件*/  
        struct rb_root  rbr;  
        /*双链表中则存放着将要通过epoll_wait返回给用户的满足条件的事件*/  
        struct list_head rdlist;  
        ....  
    };  
    

    每一个epoll对象都有一个独立的eventpoll结构体,用于存放通过epoll_ctl方法向epoll对象中添加进来的事件。这些事件都会挂载在红黑树中,如此,重复添加的事件就可以通过红黑树而高效的识别出来(红黑树的插入时间效率是lgn,其中n为树的高度)。
    而所有添加到epoll中的事件都会与设备(网卡)驱动程序建立回调关系,也就是说,当相应的事件发生时会调用这个回调方法。这个回调方法在内核中叫ep_poll_callback,它会将发生的事件添加到rdlist双链表中。
    在epoll中,对于每一个事件,都会建立一个epitem结构体,如下所示:

    struct epitem{  
        struct rb_node  rbn;//红黑树节点  
        struct list_head    rdllink;//双向链表节点  
        struct epoll_filefd  ffd;  //事件句柄信息  
        struct eventpoll *ep;    //指向其所属的eventpoll对象  
        struct epoll_event event; //期待发生的事件类型  
    }
    

    当调用epoll_wait检查是否有事件发生时,只需要检查eventpoll对象中的rdlist双链表中是否有epitem元素即可。如果rdlist不为空,则把发生的事件复制到用户态,同时将事件数量返回给用户。


    image.png

    从上面的讲解可知:通过红黑树和双链表数据结构,并结合回调机制,造就了epoll的高效。

    OK,讲解完了Epoll的机理,我们便能很容易掌握epoll的用法了。一句话描述就是:三步曲。

    第一步:epoll_create()系统调用。此调用返回一个句柄,之后所有的使用都依靠这个句柄来标识。

    第二步:epoll_ctl()系统调用。通过此调用向epoll对象中添加、删除、修改感兴趣的事件,返回0标识成功,返回-1表示失败。

    第三部:epoll_wait()系统调用。通过此调用收集收集在epoll监控中已经发生的事件。

    select仍然在现实保留的原因
    1.历史遗留问题,因为select发展了很久的时间,额可以肯定大多的平台都支持他了,因为你无法保证新的平台都支持poll或者epoll。放心,我们说的不是enaic那种元祖机子,你听说过xp吗?你知道他在全中国全世界知道今天2016/9/10仍然占据多少比例么。oh no,它只支持iselect。
    2.时间高精度,因为select可以精确到ns级别。而后二者只能精确到ms级别。当然你会说很多系统调用都没有那么高精度的。但是对于实时操作系统,也就是类似工业控制的高精领域,或者说比如核电站,核反应堆,oh,no这儿用select不止是让系统更安全,让你不被老板炒鱿鱼,更是关系到我们大众安全的问题,请你一定不要忘了这一点。
    3,当然如果是简单应用场景,比如低于200个socket,那么你用什么其实问题都不大,更多的问题是在与程序员的编程水平了。

    转自:https://segmentfault.com/a/1190000003063859

    相关文章

      网友评论

        本文标题:I/O模型之二:Linux IO模式及 select、poll、

        本文链接:https://www.haomeiwen.com/subject/jdvolftx.html