NCNN量化之ncnn2table和ncnn2int8
一、ncnn2table生成量化表
1、首先准备工作,参考NCNN深度学习框架之Optimize优化器
2、终端进入ncnn/build/tools/quantize目录
3、./ncnn2table --image imagepath --param parampath --bin binpath --output newModel.table
- 注:在执行命令时,在后面还可以添加mean, norm, size, thread参数,这边工具里已设为默认,就没有修改;
- 注:这里的image指的是图片集,并且是图片数量较多的图片集;
4、执行命令后,即可看见原文件目录下生成newModel.table的量化表
二、ncnn2int8量化网络模型
1、执行可执行文件ncnn2table,生成量化表
2、终端进入ncnn/build/tools/quantizw目录
3、./ncnn2int8 [inparam] [inbin] [outparam] [outbin] [calibration table]
4、执行命令后,即可在原文件目录下生成param和bin的输出文件(即进行int8量化后的ncnn模型)
转载:https://www.cnblogs.com/wanggangtao/p/11352948.html
网友评论