美文网首页
使用 tower gRPC

使用 tower gRPC

作者: siddontang | 来源:发表于2019-01-28 08:24 被阅读115次

    在 TiKV 里面,我们使用的是 grpc-rs,这是我们自己维护的一个 Rust gRPC 库,主要是使用 Future 这个特性,封装了 Google 的 C gRPC,对外提供了一套易于使用的同步编程的接口。

    但 grpc-rs 并不是 pure Rust,而且 C gRPC 的性能其实并不好,加上在生产环境中碰到过几次 C gRPC panic,我们一直有打算完全拥抱 Rust 社区,用一个纯 Rust 的 gRPC 实现(以前也想过自己造轮子,但发现坑太大,就算了)。现阶段,有两个现成的,一个是 grpc-rust,而另一个则是 tower-grpc。grpc-rust 在最开始我们开发 grpc-rs 的时候,尝试过一段时间,不过接上去之后异常的不稳定,所以放弃了,后来也一直没有尝试,现在不知道改善了没有。

    而 tower-grpc,虽然是一个非常新的实现,现在也不完善,但可以算是根正苗红了。首先它是 Rust 社区里面知名的几个开发者一起做的,譬如 mio 的作者carllerche,hyper 的作者 seanmonstar,另外它基于 tokio,这也可能是 Rust 网络编程的一个规范。所以如果我们能尽早的拥抱 tower-grpc,我们就可以跟 Rust 社区结合的更加紧密,帮助完善 tower 以及 tokio 相关的生态。

    现阶段,对于 Protobuf,TiKV 使用的是 rust-protobuf,而 tower-grpc 使用的是 prost,所以我们并不能很容易的完全迁移到 tower 进行测试,主要是要把 TiKV 里面大量的使用 rust-protobuf 的代码改成使用 prost,这个其实是一个非常重的体力活。

    不过还是可以先尝试一下的,使用 tower-grpc 还是比较简单的。首先,当然编译 TiKV 的 gRPC 协议,在 kvproto 里面,我们先 clone 下来,创建一个 tower 的目录:

    git clone https://github.com/pingcap/kvproto.git
    cd kvproto
    mkdir tower
    

    然后参考 Cargo.toml,创建出 Cargo.toml,不过这里需要注意,我使用的是 rustc 1.29.0-nightly (4f3c7a472 2018-07-17) 这个版本的,所以并不能编译 tower-grpc,需要显示的将 tower-grpc 的代码 clone 下来,在 tower-grpc/src/lib.rs 里面显示的加上:

    #![feature(extern_prelude)]
    #![feature(crate_in_paths)]
    

    才能编译通过,所以这里,我们自己的 Cargo 文件使用的是本地的 tower-grpc。然后创建一个 build.rs

    extern crate tower_grpc_build;
    
    fn main() {
        tower_grpc_build::Config::new()
            .enable_server(true)
            .enable_client(true)
            .build(&["../proto/tikvpb.proto"], &["../proto", "../include"])
            .unwrap_or_else(|e| panic!("protobuf compilation failed: {}", e));
        // Same for pdpb.proto and other proto files
    }
    

    在随便的创建个 src/lib.rs 文件,然后 cargo build,生成的 proto 相关的 rs 文件会放在类似 target/debug/build/tower-9000a2ba77585c7e/out 的目录下面,现在可以先手动 copy 出去使用,后面其实不需要这么麻烦。

    对于生成的文件,譬如 metapb.rs,类似这样

    #[derive(Clone, PartialEq, Message)]
    pub struct Cluster {
        #[prost(uint64, tag="1")]
        pub id: u64,
        /// max peer count for a region.
        /// pd will do the auto-balance if region peer count mismatches.
        ///
        /// more attributes......
        #[prost(uint32, tag="2")]
        pub max_peer_count: u32,
    }
    

    它并不能直接 import 使用,需要在外面再次 include,如下

    pub mod metapb {
        include!("proto/metapb.rs");
    }
    

    然后我们再次创建一个工程,参考 client.rs,我们弄一个自己的 TiKV client,给 TiKV 发送 raw_put 命令:

    pub fn main() {
        let _ = ::env_logger::init();
    
        let uri: http::Uri = format!("http://127.0.0.1:20161").parse().unwrap();
    
        let h2_settings = Default::default();
        let mut make_client = client::Connect::new(Dst, h2_settings, DefaultExecutor::current());
    
        let say_hello = make_client.make_service(())
            .map(move |conn| {
                use tikvpb::client::Tikv;
                use tower_http::add_origin;
    
                let conn = add_origin::Builder::new()
                    .uri(uri)
                    .build(conn)
                    .unwrap();
    
                Tikv::new(conn)
            })
            .and_then(|mut client| {
                use kvrpcpb::{Context, RawPutRequest};
                use metapb::{RegionEpoch, Peer};
    
                let ctx = Context{
                    region_id: 2,
                    region_epoch: Some(RegionEpoch{
                        conf_ver: 1,
                        version: 1,
                    }),
                    peer: Some(Peer{
                        id: 3,
                        store_id: 1,
                        is_learner: false,
                    }),
                    term: 6,
                    priority: 0,
                    isolation_level: 0,
                    not_fill_cache: false,
                    sync_log: false,
                    handle_time: false,
                    scan_detail: false,
                };
    
                client.raw_put(Request::new(RawPutRequest {
                    context: Some(ctx),
                    key: b"a".to_vec(),
                    value: b"123".to_vec(),
                    cf : "default".to_string(),
                })).map_err(|e| panic!("gRPC request failed; err={:?}", e))
            })
            .and_then(|response| {
                println!("RESPONSE = {:?}", response);
                Ok(())
            })
            .map_err(|e| {
                println!("ERR = {:?}", e);
            });
    
        tokio::run(say_hello);
    }
    

    上面我们强制操作了 Region 2,通过 pd-ctl 以及 tikv-ctl 这两个工具可以得到相关的 region 信息,然后执行,得到如下输出:

    RESPONSE = Response { http: Response { status: 200, version: HTTP/2.0, headers: {"content-type": "application/grpc", "grpc-accept-encoding": "identity,deflate,gzip", "accept-encoding": "identity,gzip"}, body: RawPutResponse { region_error: None, error: "" } } }
    

    证明操作成功了,我们通过 tikv-ctl 在 TiKV 上面查询相关的数据:

    tikv-ctl --host 127.0.0.1:20161 print -k za
    value: 123
    

    发现 key a 的值为 123,写入成功。这里需要注意,在 TiKV 里面,所有 key 都会增加前缀 “z” 写入,所以这里我们是 “za”。

    可以看到,使用 tower-grpc 是非常容易的,我们也在仔细考虑这个事情 https://github.com/tikv/tikv/issues/3951,如果你对这块感兴趣,欢迎联系我们。

    相关文章

      网友评论

          本文标题:使用 tower gRPC

          本文链接:https://www.haomeiwen.com/subject/pqvojqtx.html