美文网首页
关于linux中select和epoll是否存在惊群效应的争执

关于linux中select和epoll是否存在惊群效应的争执

作者: 舒小贱 | 来源:发表于2017-10-01 13:27 被阅读0次

亲测,先给出结论:
select不存在惊群效应,每次来一个socket消息,只有一个消费进程被唤醒。
e_poll存在惊群效应,每次来一个socket连接请求,处于空闲状态的消费进程都被唤醒。

先对select机制的测试,直接上代码:

//select测试
#include <sys/types.h>  
#include <sys/socket.h>  
#include <netinet/in.h>  
#include <sys/wait.h>  
#include <stdio.h>  
#include <string.h>  
#define PROCESS_NUM 10  
int main()  
{  
    int fd = socket(PF_INET, SOCK_STREAM, 0);  
    int connfd;  
    int pid;  
    char sendbuff[1024];  
    struct sockaddr_in serveraddr;  
    serveraddr.sin_family = AF_INET;  
    serveraddr.sin_addr.s_addr = htonl(INADDR_ANY);  
    serveraddr.sin_port = htons(1234);  
    bind(fd, (struct sockaddr*)&serveraddr, sizeof(serveraddr));  
    listen(fd, 1024);  
    int i;  
    for(i = 0; i < PROCESS_NUM; i++)  
    {  
        int pid = fork();  
        if(pid == 0)  
        {  
            while(1)  
            {  
                connfd = accept(fd, (struct sockaddr*)NULL, NULL);  
                snprintf(sendbuff, sizeof(sendbuff), "accept PID is %d\n", getpid());  
                
                send(connfd, sendbuff, strlen(sendbuff) + 1, 0);  
                printf("process %d accept success!\n", getpid());  
                close(connfd);  
            }  
        }  
    }  
    int status;  
    wait(&status);  
    return 0;  
} 

测试结果,服务端为:

[root@localhost operea_study]# gcc select.c -o a
[root@localhost operea_study]# ./a
process 12515 accept success!

客户端为:

[minping@localhost ~]$ curl 127.0.0.1:1234
accept PID is 12515
[minping@localhost ~]$ 

证明linux的select不存在惊群效应:当多个进程都阻塞在对同一个socket的accept上,当有一个新的连接到来时,,确实只有一个进程被内核唤醒,其他进程还是继续保持休眠状态。

然后对e_poll的测试:

#include <sys/types.h>  
#include <sys/socket.h>  
#include <sys/epoll.h>  
#include <netdb.h>  
#include <string.h>  
#include <stdio.h>  
#include <unistd.h>  
#include <fcntl.h>  
#include <stdlib.h>  
#include <errno.h>  
#include <sys/wait.h>  
#define PROCESS_NUM 10  
static int  
create_and_bind (char *port)  
{  
    int fd = socket(PF_INET, SOCK_STREAM, 0);  
    struct sockaddr_in serveraddr;  
    serveraddr.sin_family = AF_INET;  
    serveraddr.sin_addr.s_addr = htonl(INADDR_ANY);  
    serveraddr.sin_port = htons(atoi(port));  
    bind(fd, (struct sockaddr*)&serveraddr, sizeof(serveraddr));  
    return fd;  
}  
    static int  
make_socket_non_blocking (int sfd)  
{  
    int flags, s;  
 
    flags = fcntl (sfd, F_GETFL, 0);  
    if (flags == -1)  
    {  
        perror ("fcntl");  
        return -1;  
    }  
 
    flags |= O_NONBLOCK;  
    s = fcntl (sfd, F_SETFL, flags);  
    if (s == -1)  
    {  
        perror ("fcntl");  
        return -1;  
    }  
 
    return 0;  
}  
  
#define MAXEVENTS 64  
 
int  
main (int argc, char *argv[])  
{  
    int sfd, s;  
    int efd;  
    struct epoll_event event;  
    struct epoll_event *events;  
 
    sfd = create_and_bind("1234");  
    if (sfd == -1)  
        abort ();  
 
    s = make_socket_non_blocking (sfd);  
    if (s == -1)  
        abort ();  
 
    s = listen(sfd, SOMAXCONN);  
    if (s == -1)  
    {  
        perror ("listen");  
        abort ();  
    }  
 
    efd = epoll_create(MAXEVENTS);  
    if (efd == -1)  
    {  
        perror("epoll_create");  
        abort();  
    }  
 
    event.data.fd = sfd;  
    //event.events = EPOLLIN | EPOLLET;  
    event.events = EPOLLIN;  
    s = epoll_ctl(efd, EPOLL_CTL_ADD, sfd, &event);  
    if (s == -1)  
    {  
        perror("epoll_ctl");  
        abort();  
    }  
 
    /* Buffer where events are returned */  
    events = calloc(MAXEVENTS, sizeof event);  
            int k;  
    for(k = 0; k < PROCESS_NUM; k++)  
    {  
        int pid = fork();  
        if(pid == 0)  
        {  
 
            /* The event loop */  
            while (1)  
            {  
                int n, i;  
                n = epoll_wait(efd, events, MAXEVENTS, -1);  
                printf("process %d return from epoll_wait!\n", getpid());  
                                       /* sleep here is very important!*/  
                //sleep(2);  
                                       for (i = 0; i < n; i++)  
                {  
                    if ((events[i].events & EPOLLERR) || (events[i].events & EPOLLHUP) || (!(events[i].events &                                    EPOLLIN)))  
                    {  
                        /* An error has occured on this fd, or the socket is not  
                        ready for reading (why were we notified then?) */  
                        fprintf (stderr, "epoll error\n");  
                        close (events[i].data.fd);  
                        continue;  
                    }  
                    else if (sfd == events[i].data.fd)  
                    {  
                        /* We have a notification on the listening socket, which  
                        means one or more incoming connections. */  
                        struct sockaddr in_addr;  
                        socklen_t in_len;  
                        int infd;  
                        char hbuf[NI_MAXHOST], sbuf[NI_MAXSERV];  
 
                        in_len = sizeof in_addr;  
                        infd = accept(sfd, &in_addr, &in_len);  
                        if (infd == -1)  
                        {  
                            printf("process %d accept failed!\n", getpid());  
                            break;  
                        }  
                        printf("process %d accept successed!\n", getpid());  
 
                        /* Make the incoming socket non-blocking and add it to the  
                        list of fds to monitor. */  
                        close(infd); 
                    }  
                }  
            }  
        }  
    }  
    int status;  
    wait(&status);  
    free (events);  
    close (sfd);  
    return EXIT_SUCCESS;  
}  

服务端测试结果:

[root@localhost operea_study]# gcc e_poll.c -o b
[root@localhost operea_study]# ./b
process 12778 return from epoll_wait!
process 12779 return from epoll_wait!
process 12779 accept successed!
process 12780 return from epoll_wait!
process 12787 return from epoll_wait!
process 12781 return from epoll_wait!
process 12786 return from epoll_wait!
process 12786 accept failed!
process 12780 accept failed!
process 12785 return from epoll_wait!
process 12782 return from epoll_wait!
process 12783 return from epoll_wait!
process 12784 return from epoll_wait!
process 12784 accept failed!
process 12778 accept failed!
process 12781 accept failed!
process 12787 accept failed!
process 12783 accept failed!
process 12782 accept failed!
process 12785 accept failed!

客户端测试结果:

[minping@localhost ~]$ curl 127.0.0.1:1234
curl: (52) Empty reply from server
[minping@localhost ~]$ 

发现epoll下,10个监听在这个socket上处于epoll_wait状态的进程,在有连接请求过来的时候,都被唤醒了,惊群效应发生
再过一下事件的经过:当主进程创建socket,然后bind,然后listen后,将该socket加入到epoll中。然后fork出多个进程,每个进程都阻塞在对这个socket监听的epoll_wait上,当有一个新的连接过来时,发现这些进程全部被唤醒。

那么问题来了,为什么linux内核对select做了修复,避免了惊群效应的发生,而对epoll却不进行处理,到目前为止,epoll还是会发生惊群效应呢?

下面摘抄自网友的一段话,觉得说的还比较在理:

accept确实应该只能被一个进程调用成功,但是epoll的情况就比较复杂,epoll监听的文件描述符,
除了可能后续被accept调用外,还可能是其他网络IO事件的监听对象,那其他网络IO是否只能由一个进程处理我们是不得知的。
所以linux对epoll并没有就惊群效应做修复,而是放之,让用户层自己做处理。

第二个问题,上面说了linux对epoll并没有修复惊群效应问题,而是留给用户层(业务层)自己来处理,那么nginx是怎么处理惊群效应的呢?

nginx的网络架构大致是这样的:读取主配置文件创建socket,bind,listen等一系列动作做好后,fork出一堆子进程(为了最大限度利用cpu,一般几个核就fork几个子进程),然后每个子进程会调用ngx_event_process_init 函数来初始化自己进程的内部的连接池。ngx_event_process_init 函数还有一个很重要的工作就是:如果如果配置文件里面没有开启accept_mutex锁的话,就通过 ngx_add_event 将监听套接字(socket fd)添加到每个fork出来的子进程的 epoll 中。

每个子进程的ngx_event_process_init 函数执行完后就会在一个死循环中执行ngx_process_events_and_timers,这个函数会读取配置文件里面有没有开启accept mutex锁,如果开启了accept mutex锁,则此进程会尝试获取锁,获取成功就将socket fd当道自己这个子进程的epoll中。ngx_process_events_and_timers再调用 ngx_process_events,在 ngx_process_events这个函数里面阻塞调用 epoll_wait。

总结来说,nginx就是利用 accept_mutex 这把锁来解决epoll_wait惊群问题的。

如果配置文件中没有开启 accept_mutex,则所有的监听套接字不管三七二十一,都加入到每子个进程的 epoll中,这样当一个新的连接来到时,所有的 worker 子进程都会惊醒。

如果配置文件中开启了 accept_mutex,则只有一个子进程会将监听套接字添加到 epoll 中,这样当一个新的连接来到时,当然就只有一个 worker 子进程会被唤醒了。

总结:
1,accept 不会有惊群,epoll_wait 才会。
2,Nginx 的 accept_mutex,并不是解决 accept 惊群问题,而是解决 epoll_wait 惊群问题。
3,说Nginx 解决了 epoll_wait 惊群问题,也是不对的,它只是控制是否将监听套接字加入到子进程的epoll 中。监听套接字只在一个子进程的 epoll 中,当新的连接来到时,其他子进程当然不会惊醒了。

参考

相关文章

网友评论

      本文标题:关于linux中select和epoll是否存在惊群效应的争执

      本文链接:https://www.haomeiwen.com/subject/plzoextx.html