美文网首页
[TensorRT] 使用TensorRT加速深度模型入门

[TensorRT] 使用TensorRT加速深度模型入门

作者: 太阳上的日子 | 来源:发表于2019-08-23 00:01 被阅读0次

    引言

    最近在做一个项目,需要使用TensorRT去加速神经网络模型运行。TensorRT支持FP16、 INT8等数据类型, 在运用后,发现模型推理速度大大提高,英伟达的TensorRT实在太强了。只可惜这个工具没有开源,不然真要好好研究。

    由于我原本使用了PyTorch来训练我的模型, 而TensorRT无法直接加载PyTorch的模型,需要使用ONNX作为中间媒介。中间踩了些坑,不过后面都解决了。根据此写了个小教程,分享给大家

    教程

    代码已经上传到GitHub啦,请移步传送门

    结语

    听说TensorRT已经出INT4类型的加速了,真是可怕,后续会跟进的。
    喜欢的话请加星点赞哟

    相关文章

      网友评论

          本文标题:[TensorRT] 使用TensorRT加速深度模型入门

          本文链接:https://www.haomeiwen.com/subject/yquasctx.html