Okhttp的浅层架构分析
Okhttp的责任链模式和拦截器分析
Okhttp之RetryAndFollowUpInterceptor拦截器分析
Okhttp之BridgeInterceptor拦截器分析
Okhttp之CacheInterceptor拦截器分析
Okhttp之ConnectInterceptor拦截器分析
Okhttp之网络连接相关三大类RealConnection、ConnectionPool、StreamAllocation
BridgeInterceptor(桥拦截器),顾名思义,就是起到桥接作用,用来把用户构造的request转换成发送到服务器request,并把服务器返回的响应转换为对用户友好的响应。转换的过程就是在Request阶段配置用户信息,并添加一些请求头。在Response阶段,进行gzip解压。
上代码:
public final class BridgeInterceptor implements Interceptor {
@Override
public Response intercept(Chain chain) throws IOException {
Request userRequest = chain.request();
Request.Builder requestBuilder = userRequest.newBuilder();
RequestBody body = userRequest.body();
if (body != null) {
//1 进行Header的包装
MediaType contentType = body.contentType();
if (contentType != null) {
//请求体类型
requestBuilder.header("Content-Type", contentType.toString());
}
long contentLength = body.contentLength();
if (contentLength != -1) {
//请求体长度,这个长度一般指请求体的byte长度
requestBuilder.header("Content-Length", Long.toString(contentLength));
requestBuilder.removeHeader("Transfer-Encoding");
} else {
//大小未知的情况下用Transfer-Encoding---chunked,如果要一边产生数据,一边发给客户端
//服务器就需要使用"Transfer-Encoding: chunked"这样的方式来代替Content-Length
requestBuilder.header("Transfer-Encoding", "chunked");
requestBuilder.removeHeader("Content-Length");
}
}
//host地址
if (userRequest.header("Host") == null) {
requestBuilder.header("Host", hostHeader(userRequest.url(), false));
}
//当使用Keep-Alive模式(又称持久连接、连接重用)时,Keep-Alive功能使客户端到服务器端的
//连接持续有效,当出现对服务器的后继请求时,Keep-Alive功能避免了建立或者重新建立连接。
if (userRequest.header("Connection") == null) {
requestBuilder.header("Connection", "Keep-Alive");
}
// If we add an "Accept-Encoding: gzip" header field we're responsible for also decompressing
// the transfer stream.
//如果我们添加一个“Accept-Encoding:gzip”头字段,我们也负责解压缩传输流。
boolean transparentGzip = false;
if (userRequest.header("Accept-Encoding") == null && userRequest.header("Range") == null) {
transparentGzip = true;
requestBuilder.header("Accept-Encoding", "gzip");
}
//创建OkhttpClient配置的cookieJar,把cookie信息添加进来
List<Cookie> cookies = cookieJar.loadForRequest(userRequest.url());
if (!cookies.isEmpty()) {
requestBuilder.header("Cookie", cookieHeader(cookies));
}
if (userRequest.header("User-Agent") == null) {
requestBuilder.header("User-Agent", Version.userAgent());
}
//拼接完后传递到下一个拦截器
Response networkResponse = chain.proceed(requestBuilder.build());
//解析服务器返回的Header,保存服务器返回的cookie信息
HttpHeaders.receiveHeaders(cookieJar, userRequest.url(), networkResponse.headers());
//用http返回的response重新构建一个responseBuilder
Response.Builder responseBuilder = networkResponse.newBuilder()
.request(userRequest);
////判断服务器是否支持gzip压缩,如果支持,则将压缩提交给Okio库来处理
if (transparentGzip
&& "gzip".equalsIgnoreCase(networkResponse.header("Content-Encoding"))
&& HttpHeaders.hasBody(networkResponse)) {
GzipSource responseBody = new GzipSource(networkResponse.body().source());
Headers strippedHeaders = networkResponse.headers().newBuilder()
.removeAll("Content-Encoding")
.removeAll("Content-Length")
.build();
responseBuilder.headers(strippedHeaders);
String contentType = networkResponse.header("Content-Type");
//responseBuilder 是个okio的输入流source,这里包装成了RealBufferedSource,方便后续读取
responseBuilder.body(new RealResponseBody(contentType, -1L, Okio.buffer(responseBody)));
}
//返回经过处理的response
return responseBuilder.build();
}
}
总结:
主要是对请求头的一些添加和完善,使其符合http协议的规范,还有对返回的response里的gzip进行转换。逻辑不是很繁琐,要完全理解的话要多看看http协议的一些规范。
网友评论