最近看到一个巨牛的人工智能教程,分享一下给大家。教程不仅是零基础,通俗易懂,而且非常风趣幽默,像看小说一样!觉得太牛了,所以分享给大家。平时碎片时间可以当小说看,【点这里可以去膜拜一下大神的“小说”】。
1 下载
前往【OpenVINO官方下载地址】,进入下载页面:
![](https://img.haomeiwen.com/i2154124/b4df8f68fd558fd6.png)
选择windows
,登录intel账户后,跳转下载页面,选择Full Package按钮
:
![](https://img.haomeiwen.com/i2154124/5de2a6692bf844b0.png)
2 解压
从第1小节中下载得到文件w_openvino_toolkit_p_2019.3.379.exe
,其实是一个压缩包,双击自动解压。
![](https://img.haomeiwen.com/i2154124/073718fe01ceebd4.png)
选择解压路径,我这边选择:E:\OpenVINO
![](https://img.haomeiwen.com/i2154124/15e50a314d77d124.png)
后续选择Next
即可,安装完成后,在E:\OpenVINO
目录下有两个文件夹,如下所示:
![](https://img.haomeiwen.com/i2154124/1dd2e6f004eb4312.png)
3 Visual Studio 2017中配置OpenVINO
注意:这里只考虑使用CPU运算库,不考虑GPU和其他设备。
3.1 创建工程
在VS2017 中创建一个项目,命名为VINO。
3.2 include目录
首先选中VINO
工程,然后点击属性按钮,如下图:
![](https://img.haomeiwen.com/i2154124/ffdc4329a0b990c4.png)
点开后,选中VC++目录
,选中包含目录
,Debug模式和Release模式的include都一样,即在包含目录中添加include地址:E:\OpenVINO\openvino_2019.3.334\deployment_tools\inference_engine\include
,如下图所示:
![](https://img.haomeiwen.com/i2154124/4aab46d80270a0c7.png)
3.3 设置库目录和库
3.3.1 库目录
同样在VC++目录
中,选择库目录,Debug
模式和Release
目录分别选择目录E:\OpenVINO\openvino_2019.3.334\deployment_tools\inference_engine\lib\intel64
下的Debug
和Release
子目录,以及目录E:\OpenVINO\openvino_2019.3.334\deployment_tools\inference_engine\samples\intel64
下的Debug
和Release
子目录,如下图所示:
![](https://img.haomeiwen.com/i2154124/06adc5e13cfeebb3.png)
Release
模式如下:
![](https://img.haomeiwen.com/i2154124/78bd79d224cb1914.png)
3.3.2 库名称
点击链接器
> 输入
> 附加依赖项目
,Release模式下添加inference_engine.lib
和cpu_extension.lib
,如下图:
![](https://img.haomeiwen.com/i2154124/173b500b58577ace.png)
Debug
模式下添加inference_engined.lib
和cpu_extensiond.lib
,如下图:
![](https://img.haomeiwen.com/i2154124/8bcfd110c8a5bd5f.png)
4 结束
环境以及配置好了,接下来就是开始写代码,下一章介绍如何将Tensorflow模型转为OpenVINO能识别的模型,并运行。
网友评论