Long Polling长轮询详解

作者: 涤生YQ | 来源:发表于2017-07-04 23:44 被阅读4730次

Long Polling长轮询详解

简书 涤生
转载请注明原创出处,谢谢!
如果读完觉得有收获的话,欢迎点赞加关注。

介绍

众所周知,数据交互有两种模式:Push(推模式)、Pull(拉模式)。

推模式指的是客户端与服务端建立好网络长连接,服务方有相关数据,直接通过长连接通道推送到客户端。其优点是及时,一旦有数据变更,客户端立马能感知到;另外对客户端来说逻辑简单,不需要关心有无数据这些逻辑处理。缺点是不知道客户端的数据消费能力,可能导致数据积压在客户端,来不及处理。

拉模式指的是客户端主动向服务端发出请求,拉取相关数据。其优点是此过程由客户端发起请求,故不存在推模式中数据积压的问题。缺点是可能不够及时,对客户端来说需要考虑数据拉取相关逻辑,何时去拉,拉的频率怎么控制等等。

详解

说到Long Polling(长轮询),必然少不了提起Polling(轮询),这都是拉模式的两种方式。

Polling是指不管服务端数据有无更新,客户端每隔定长时间请求拉取一次数据,可能有更新数据返回,也可能什么都没有。

Long Polling原理也很简单,相比Polling,客户端发起Long Polling,此时如果服务端没有相关数据,会hold住请求,直到服务端有相关数据,或者等待一定时间超时才会返回。返回后,客户端又会立即再次发起下一次Long Polling。这种方式也是对拉模式的一个优化,解决了拉模式数据通知不及时,以及减少了大量的无效轮询次数。(所谓的hold住请求指的服务端暂时不回复结果,保存相关请求,不关闭请求连接,等相关数据准备好,写会客户端。)

前面提到Long Polling如果当时服务端没有需要的相关数据,此时请求会hold住,直到服务端把相关数据准备好,或者等待一定时间直到此次请求超时,这里大家是否有疑问,为什么不是一直等待到服务端数据准备好再返回,这样也不需要再次发起下一次的Long Polling,节省资源?
主要原因是网络传输层主要走的是tcp协议,tcp协议是可靠面向连接的协议,通过三次握手建立连接。但是所建立的连接是虚拟的,可能存在某段时间网络不通,或者服务端程序非正常关闭,亦或服务端机器非正常关机,面对这些情况客户端根本不知道服务端此时已经不能互通,还在傻傻的等服务端发数据过来,而这一等一般都是很长时间。当然tcp协议栈在实现上有保活计时器来保证的,但是等到保活计时器发现连接已经断开需要很长时间,如果没有专门配置过相关的tcp参数,一般需要2个小时,而且这些参数是机器操作系统层面,所以,以此方式来保活不太靠谱,故Long Polling的实现上一般是需要设置超时时间的。

实现

Long Polling的实现很简单,可分为四个过程:

  • 发起Polling
    发起Polling很简单,只需向服务器发起请求,此时服务端还未应答,所以客户端与服务端之间一直处于连接状态。

  • 数据推送
    如果服务器端有相关数据,此时服务端会将数据通过此前建立的通道发回客户端。

  • Polling终止
    Polling终止情况有三种:
    若服务端返回相关数据,此时客户端收到数据后,关闭请求连接,结束此次Polling过程。
    若客户端等待设定的超时时间后,服务端依然没有返回数据,此时客户端需要主动终止此次Polling请求。
    若客户端收到网络故障或异常,此时客户端自然也是需要主动终止此次Polling请求。

  • 重新Polling
    终止上次Polling后,客户端需要立即再次发起Polling请求。这样才能保证拉取数据的及时性。

代码实现起来也很简单,Http Call按照上述过程就很方便实现LongPolling。下面Code只是简单展示过程,在具体场景下,根据具体的业务逻辑进行调整。

客户端Code

package com.andy.example.longpolling.client;

import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;
import java.net.HttpURLConnection;
import java.net.URL;

/**
 * Created by andy on 17/7/6.
 */
public class ClientBootstrap {

    public static final String URL = "http://localhost:8080/long-polling";

    public static void main(String[] args) {
        int i = 0;
        while (true) {
            System.out.println("第" + (++i) + "次 longpolling");
            HttpURLConnection connection = null;
            try {
                URL getUrl = new URL(URL);
                connection = (HttpURLConnection) getUrl.openConnection();
                connection.setReadTimeout(50000);//这就是等待时间,设置为50s
                connection.setConnectTimeout(3000);
                connection.setRequestMethod("GET");
                connection.setRequestProperty("Accept-Charset", "utf-8");
                connection.setRequestProperty("Content-Type", "application/json");
                connection.setRequestProperty("Charset", "UTF-8");

                if (200 == connection.getResponseCode()) {
                    BufferedReader reader = null;
                    try {
                        reader = new BufferedReader(new InputStreamReader(connection.getInputStream(), "UTF-8"));
                        StringBuilder result = new StringBuilder(256);
                        String line = null;
                        while ((line = reader.readLine()) != null) {
                            result.append(line);
                        }

                        System.out.println("结果 " + result);

                    } finally {
                        if (reader != null) {
                            reader.close();
                        }
                    }
                }
            } catch (IOException e) {

            } finally {
                if (connection != null) {
                    connection.disconnect();
                }
            }
        }
    }

}

服务端Code

package com.andy.example.longpolling.server;

import javax.servlet.ServletException;
import javax.servlet.http.HttpServlet;
import javax.servlet.http.HttpServletRequest;
import javax.servlet.http.HttpServletResponse;
import java.io.IOException;
import java.io.PrintWriter;
import java.util.Random;
import java.util.concurrent.TimeUnit;
import java.util.concurrent.atomic.AtomicLong;

/**
 * Created by andy on 17/7/6.
 */
public class LongPollingServlet extends HttpServlet {

    private Random random = new Random();

    private AtomicLong sequenceId = new AtomicLong();

    private AtomicLong count = new AtomicLong();

    @Override
    protected void doGet(HttpServletRequest request, HttpServletResponse response)
            throws ServletException, IOException {

        System.out.println("第" + (count.incrementAndGet()) + "次 longpolling");

        int sleepSecends = random.nextInt(100);
//随机获取等待时间,来通过sleep模拟服务端是否准备好数据

        System.out.println("wait " + sleepSecends + " second");

        try {
            TimeUnit.SECONDS.sleep(sleepSecends);//sleep
        } catch (InterruptedException e) {

        }

        PrintWriter out = response.getWriter();
        long value = sequenceId.getAndIncrement();
        out.write(Long.toString(value));
    }

}

结果

服务端结果 客户端结果

应用

WebQQ、Comet都用到长轮询技术,另外一些使用Pull模式消费的消息系统,都会使用Long Polling技术进行优化。

补充

针对一些同学的反馈,补充一篇 Long Polling长轮询实现进阶,希望大家对长轮询理解更加深刻。

欢迎关注微信公共号

相关文章

网友评论

  • 运动书生:赞,现成的实现可以了解一下kafka的消费端长轮询的实现,大致实现是请求过来有数据直接返回,没有的话根据超时时间放入等待队列(时间轮方式实现超时检查),满足数据获取条件就返回
  • ec8a37a11c00:好文
    涤生YQ:@EricLiu_07d5 :blush:
  • 小小帽2010:“此时如果服务端没有相关数据,会hold住请求,直到服务端有相关数据,或者等待一定时间超时才会返回。”此話是否诣指,伺服器端會阻塞?而客戶端發起請求端也會阻塞?

    如果客戶端用前端AJAX請求,伺服器端阻塞,那前端還是可以繼續執行的。
    如果伺服器端用AsyncContext,也是會阻塞的,究其根本還是要寫 response的。


    :dizzy_face: 不是太理解
    涤生YQ:@陈书骏 是的,是要设置超时时间的,文中也特别提到了这点。
    小小帽2010:@涤生_YinQi 恩是客戶端這邊。我的理解是不管是H5這邊的AJAX還是Java這邊走HttpClient調用,都要設置一個超時時間吧,沒有返回就用前一次或者默認值。因為股務段不管同步還是異步,response沒有返回,客戶端肯定是會阻塞的。所以我感覺用long polling一定要設置一個超時時間的。不知道理解的對不對,謝謝兄台。
    涤生YQ:嗯,我理解你的疑问是在客户端,会阻塞很长时间长能拿到结果?不知理解对不对,其实要理解这个问题,首先longpolling阻塞不是目的,阻塞是为了最快时间拿到最新的值,是为了解决拉模式,数据通知不及时,以及简单轮询对服务器的压力。如果只是前端的ajax请求,展示页面,如果请求没回来可以展示之前的值,也可以不使用longpolling。不知道是不是你要的答案。如果还有疑问,我们接着聊。
  • 多罗罗_763e:长轮询是,客户端异步请求+连接复用,跟服务端无关。
    多罗罗_763e:@涤生_YinQi 是的,概念上和异步无关,一般实现的时候会用异步,不会傻傻的一直阻塞到超时,然后再请求
    涤生YQ:@多罗罗_763e 从longpolling请求的发起来讲,跟服务端确实关系不大,但是需要服务端配合hold住,这块还是跟服务端有关的。客户端异步请求+连接复用这句话不太理解,长轮询和异步请求,连接服用没有必然联系
    刘世杰_3951:@多罗罗_763e do you have the code?
  • 刘世杰_3951:@涤生_YinQi 谢谢回答。我对长轮询的理解是,如果当客户端请求过来的时候还没有数据可以返回,那可以等一段时间,因为这段时间可能就有数据了。错别字好几个重新编辑了一个:smile:
    刘世杰_3951:@涤生_YinQi :+1:
    涤生YQ:@刘世杰_3951 :+1:,多谢反馈,服务端这块处理有些误导
  • 刘世杰_3951:好文。服务端收到请求后怎么阻塞比较合理?使用长轮询的目的主要是为了尽可能实时返回数据,sleep是无法做到的。如何在服务端处理阻塞这个能深入讨论一下就更好了
    涤生YQ:@刘世杰_3951 是的
    涤生YQ:@刘世杰_3951
    嗯,这块确实有些细节处理没有尽述。服务端收到请求后其实不用阻塞的,只需保存相关request和response等到有相关数据,通过response往客户端写就行了(这里有些细节处理,比如回写时,客户端可能已经超时等问题)。这里demo用sleep是为了模拟服务端准备好数据和没准备好数据的情况,简单实现,可能有点误导。

本文标题:Long Polling长轮询详解

本文链接:https://www.haomeiwen.com/subject/hidiattx.html