1 软件准备
首先从官网下载TensorRT安装包,像cuDNN,TensorRT这些安装包都是需要注册下载的。没有账号的提前注册个NVIDIA的账号。这里就以7.2.3为例,首先选择该版本的压缩包:

下载完成后,将会如下图:

2 VS配置
下面就是重点了,怎样在VS环境中配置TensorRT的开发环境,这里就以samples里的代码为例来说明,其实这些示例代码能帮助我们很好的去学习如何使用TensorRT的。
2.1 VC++目录配置

右键点击属性首先配置的是VC++目录中的可执行文件目录中配置TensoRT安装目录包中lib库,包含目录中要包含CUDA和TensorRT安装目录中的include目录,库目录中要包含CUDA和TensorRT安装目录中的lib目录,以我本机的安装目录如下:

2.2 C++目录配置
C++目录配置主要配置附加包含目录即可,这里主要配置TensorRT安装目录中的bin目录和include目录以及CUDA安装目录的include目录。其余的不用去配置,按照我本机的配置如下:

2.3 链接器配置
最后一个配置的就是链接器配置,链接器配置只要配置输入就可以了。配置链接器中的附加依赖项即可,这里主要配置的是TensorRT安装目录下的各种lib文件中的lib文件。我本地的如下图:

我们只需将如下的文件添加到依赖项中即可。我的输入如下:
E:\software\TensorRT-7.2.3.4\lib\nvinfer.lib
myelin64_1.lib
nvinfer_plugin.lib
nvonnxparser.lib
nvparsers.lib
nvinfer.lib
kernel32.lib
user32.lib
gdi32.lib
winspool.lib
comdlg32.lib
advapi32.lib
shell32.lib
ole32.lib
oleaut32.lib
uuid.lib
odbc32.lib
odbccp32.lib
%(AdditionalDependencies)
cudnn.lib
cublas.lib
cudart.lib
nvrtc.lib
这样我们的VS TensorRT开发环境就配置完成了,下面就测试一下。我们用生成的工程中的exe测试一下,如果出现如下的结果则证明配置成功了:

没问题大功告成!!
网友评论