美文网首页linux 网络编程程序员已收录(2017-8-15)
ss-libev 源码解析local篇(1): ss_local

ss-libev 源码解析local篇(1): ss_local

作者: 勤奋happyfire | 来源:发表于2017-05-11 19:21 被阅读1469次

    学习研究ss-libev的一点记录(基于版本3.0.6)
    ss_local主要代码在local.c中,如果作为一个库编译,可通过start_ss_local_server启动local server。所以先从这个函数入手,看local的启动过程。

    STEP0: int start_ss_local_server(profile_t profile)

    • profile_t profile 是ss-libev的配置
    typedef struct {
        /*  Required  */
        char *remote_host;    // hostname or ip of remote server
        char *local_addr;     // local ip to bind
        char *method;         // encryption method
        char *password;       // password of remote server
        int remote_port;      // port number of remote server
        int local_port;       // port number of local server
        int timeout;          // connection timeout
    
        /*  Optional, set NULL if not valid   */
        char *acl;            // file path to acl
        char *log;            // file path to log
        int fast_open;        // enable tcp fast open
        int mode;             // enable udp relay
        int mtu;              // MTU of interface
        int mptcp;            // enable multipath TCP
        int verbose;          // verbose mode
    } profile_t;
    

    local启动时核心是创建一个listen_ctx_t对象,这个结构定义如下:

    typedef struct listen_ctx {
        ev_io io;
        char *iface;
        int remote_num;
        int timeout;
        int fd;
        int mptcp;
        struct sockaddr **remote_addr;
    } listen_ctx_t;
    

    其中,最重要的是io这个成员了,这是一个libev中的ev_io对象,用来监听某个套接字上的事件,后面会具体说。
    fd是local服务器的监听套接字描述符:

    struct sockaddr *remote_addr_tmp[MAX_REMOTE_NUM];
        listen_ctx_t listen_ctx;
        listen_ctx.remote_num     = 1;
        listen_ctx.remote_addr    = remote_addr_tmp;
        listen_ctx.remote_addr[0] = (struct sockaddr *)(&storage);
        listen_ctx.timeout        = timeout;
        listen_ctx.iface          = NULL;
        listen_ctx.mptcp          = mptcp;
    
        if (mode != UDP_ONLY) {
            // Setup socket
            int listenfd;
            listenfd = create_and_bind(local_addr, local_port_str);
            if (listenfd == -1) {
                ERROR("bind()");
                return -1;
            }
            if (listen(listenfd, SOMAXCONN) == -1) {
                ERROR("listen()");
                return -1;
            }
            setnonblocking(listenfd);
    
            listen_ctx.fd = listenfd;
    
            ev_io_init(&listen_ctx.io, accept_cb, listenfd, EV_READ);
            ev_io_start(loop, &listen_ctx.io);
        }
    

    local服务器的socket创建并绑定端口(create_and_bind)后监听(listen),设置为非阻塞,然后设置一个libev的ev_io对象并启动EV_READ事件的监听,当该套建字上有可以读入的数据时执行回调 accept_cb,也就是说有客户端连接上来了需要去accept。在看accept_cb之前,继续看一下剩下的代码。

    // Setup UDP
        if (mode != TCP_ONLY) {
            LOGI("udprelay enabled");
            struct sockaddr *addr = (struct sockaddr *)(&storage);
            udp_fd = init_udprelay(local_addr, local_port_str, addr,
                          get_sockaddr_len(addr), mtu, crypto, timeout, NULL);
        }
    

    这是初始化udp转发,暂时不讨论了,注意这儿返回的udp_fd是local udp server的端口对应的描述符,ss-local作为独立应用使用的时候,一般tcp和udp使用同一个端口号,所以tcp的listenfd和udp_fd转换为端口号是相同的(通过getsockname获取的地址里面的端口号),但是如果ss-local作为一个库使用,往往需要将local port设置为0,让系统选择空闲端口,这些这两个描述符对应的端口就可能不一样了。3.0.6之前就没区分,我发了个issue作者才给改的。继续:

    // Init connections
        cork_dllist_init(&connections);
    
        // Enter the loop
        ev_run(loop, 0);
    
        if (verbose) {
            LOGI("closed gracefully");
        }
    
        // Clean up
        if (mode != UDP_ONLY) {
            ev_io_stop(loop, &listen_ctx.io);
            free_connections(loop);
            close(listen_ctx.fd);
        }
    
        if (mode != TCP_ONLY) {
            free_udprelay();
        }
    
        return 0;
    

    cork_dllist_init(&connections);初始化了一个链表,这个方法来自于libcork库。后面会说到server_t对象会存放到connections链表中,然后在free_connections的时候从链表中取出server_t对象关闭和释放。这儿有意思的是这种c语言的链表中并不是直接存放一个server_t类型的指针,而是存放了一个cork_dllist_item类型的变量,且server_t结构中会包含这个cork_dllist_item类型的变量。核心是通过cork_container_of方法可以根据cork_dllist_item的指针获取server_t对象的指针。这就相当于实现了一个侵入式的万能链表,不经常使用c语言的同学比如我还是觉得挺有趣的,c语言没有泛型是不是也挺好的。

    /* Return a pointer to a @c struct, given a pointer to one of its
     * fields. */
    #define cork_container_of(field, struct_type, field_name) \
        ((struct_type *) (- offsetof(struct_type, field_name) + \
                          (void *) (field)))
    

    回到启动函数里面,ev_run(loop, 0);这句启动了一个libev的循环,且线程就阻塞在这儿了。直到服务器退出后才继续执行后面的clean up代码。所以说listen_ctx虽然是在栈上定义的,但会在ss local运行期间一直存在。下面会看到这个对象会通过指针转换在accept_cb中取得并把他存放于server_t对象中。

    STEP1: void accept_cb(EV_P_ ev_io *w, int revents)

    这个函数短就直接贴了:

    void
    accept_cb(EV_P_ ev_io *w, int revents)
    {
        listen_ctx_t *listener = (listen_ctx_t *)w;
        int serverfd           = accept(listener->fd, NULL, NULL);
        if (serverfd == -1) {
            ERROR("accept");
            return;
        }
        setnonblocking(serverfd);
        int opt = 1;
        setsockopt(serverfd, SOL_TCP, TCP_NODELAY, &opt, sizeof(opt));
    #ifdef SO_NOSIGPIPE
        setsockopt(serverfd, SOL_SOCKET, SO_NOSIGPIPE, &opt, sizeof(opt));
    #endif
    
        server_t *server = new_server(serverfd);
        server->listener = listener;
    
        ev_io_start(EV_A_ & server->recv_ctx->io);
    }
    

    首先回顾一下上面start_ss_local_server里的两句代码:

    ev_io_init(&listen_ctx.io, accept_cb, listenfd, EV_READ);
    ev_io_start(loop, &listen_ctx.io);
    

    这是libev的基本用法,简单说就是创建并初始化一个ev_io对象,即listen_ctx.io,他将监听listenfd所描述的套接字上的读事件,当有数据可读入时,调用回到函数accept_cb。ev_io_init只是初始化,只有调用了ev_io_start后才真正开始监听,这点很重要,因为代码里面经常会先init,然后在合适的时候再start,所以为了不看错代码流程一定要分清start才是真正开始监听。
    回到accept_cb中,参数ev_io *w会传入监听的ev_io对象,由于io正好是listen_ctx_t结构体的第一个成员,因此可以通过指针转换得到listener的指针,进而获取到fd。由于fd是一个监听套接字,也就是说socket-bind-listen之后的套接字,这是tcp服务器的通常流程,当这个套接字上有可读数据时,说明是有客户端连入了,因此要执行accept函数,这个和在线程里面阻塞住等待accept的做法很不一样,通过libev可以异步的知道有数据可读,然后主动调用accept,这样避免开很多线程解决高并发的问题。在整个ss-local运行期间,客户端每次连入都会回调到accept_cb,进而调用accept产生一个serverfd,这个serverfd用来描述来自客户端的一条连接,ss-libev通过一个server_t结构体来管理来自客户端的一条连接。

    typedef struct server {
        int fd;
        int stage;
    
        cipher_ctx_t *e_ctx;
        cipher_ctx_t *d_ctx;
        struct server_ctx *recv_ctx;
        struct server_ctx *send_ctx;
        struct listen_ctx *listener;
        struct remote *remote;
    
        buffer_t *buf;
        buffer_t *abuf;
    
        ev_timer delayed_connect_watcher;
    
        struct cork_dllist_item entries;
    } server_t;
    

    最重要的是两个server_ctx成员,recv_ctx和send_ctx,这是用来收发数据的上下文对象。server_t相当于在socks5客户端和ss-local 的socks5服务端之间交互的对象,而recv_ctx用来处理来自于socks5客户端的数据,send_ctx用来处理向socks5客户端转发来自远程服务器的数据。remote就是处理远程服务器交互的对象。其他内容先忽略,看一下server_ctx:

    typedef struct server_ctx {
        ev_io io;
        int connected;
        struct server *server;
    } server_ctx_t;
    

    其中的ev_io对象io就是用来监听客户端和ss-local socks5 sever之间的数据读写的。
    回到accept_cb中,server_t *server = new_server(serverfd);创建了server对象并进行设置:

    static server_t *
    new_server(int fd)
    {
        server_t *server;
        server = ss_malloc(sizeof(server_t));
    
        memset(server, 0, sizeof(server_t));
    
        server->recv_ctx = ss_malloc(sizeof(server_ctx_t));
        server->send_ctx = ss_malloc(sizeof(server_ctx_t));
        server->buf      = ss_malloc(sizeof(buffer_t));
        server->abuf     = ss_malloc(sizeof(buffer_t));
        balloc(server->buf, BUF_SIZE);
        balloc(server->abuf, BUF_SIZE);
        memset(server->recv_ctx, 0, sizeof(server_ctx_t));
        memset(server->send_ctx, 0, sizeof(server_ctx_t));
        server->stage               = STAGE_INIT;
        server->recv_ctx->connected = 0;
        server->send_ctx->connected = 0;
        server->fd                  = fd;
        server->recv_ctx->server    = server;
        server->send_ctx->server    = server;
    
        server->e_ctx = ss_align(sizeof(cipher_ctx_t));
        server->d_ctx = ss_align(sizeof(cipher_ctx_t));
        crypto->ctx_init(crypto->cipher, server->e_ctx, 1);
        crypto->ctx_init(crypto->cipher, server->d_ctx, 0);
    
        ev_io_init(&server->recv_ctx->io, server_recv_cb, fd, EV_READ);
        ev_io_init(&server->send_ctx->io, server_send_cb, fd, EV_WRITE);
    
        ev_timer_init(&server->delayed_connect_watcher,
                delayed_connect_cb, 0.05, 0);
    
        cork_dllist_add(&connections, &server->entries);
    
        return server;
    }
    

    主要工作就是分配内存给recv_ctx,send_ctx以及buf和abuf这两个buffer。设置stage为STAGE_INIT,设置上fd,设置加密解密的上下文对象e_ctx和d_ctx。然后设置了两个ev_io监听,分别是对于recv_ctx->io设置READ监听,对于send_ctx->io设置WRITE监听,并且还启动了一个timer,这个timer 0.05秒之后会调用delayed_connect_cb回调。最后会通过cork_dllist_add方法,把server加入到connections链表中(上面说过)。
    返回accept_cb中,执行ev_io_start(EV_A_ & server->recv_ctx->io);启动了recv_ctx->io上的事件监听,即serverfd上的读事件。下次会具体分析这个读事件的回调server_recv_cb,local的主要逻辑在这里面。

    小结

    • listen_ctx_t对象用于处理ss-local的监听,保存了用于处理READ事件的io和监听套接字fd,并且保存了远端ss-server服务器的地址。这个对象在ss-local运行期间一直存在。
    • 当有客户端连接上ss-local后,accept_cb会被调用,其中在listen_ctx_t保存的监听fd上执行accept操作,获取serverfd,并保存在一个server_t结构中。server_t用于处理客户端和ss-lcoal之间的一条连接,客户端每次连接都会调用一次accept_cb并创建一个server_t。
    • server_t对象创建后会设置recv_ctx和send_ctx,其中都包含io对象用于处理读或写事件。先启动读事件,等待客户端发送SOCKS5握手请求。
    • 下文会分析server_recv_cb,从SOCKS5握手开始。

    相关文章

      网友评论

        本文标题:ss-libev 源码解析local篇(1): ss_local

        本文链接:https://www.haomeiwen.com/subject/eznotxtx.html