美文网首页
使用OpenVINO Model Optimizer优化模型时选

使用OpenVINO Model Optimizer优化模型时选

作者: LabVIEW_Python | 来源:发表于2021-06-13 08:41 被阅读0次
    在使用OpenVINO进行模型优化时,可以选择数据精度,即:FP32,FP16,INT8。能用FP16和INT8来替换FP32的原因是,其数据分布刚好满足下图,即用FP32表达的权重的数据范围,FP16和INT8也能表达 FP32表达的权重的数据范围,FP16和INT8也能表达

    用FP16或INT8来代替FP32的优化方式,称为量化(Quantization),它能减少权重占用内存并加速计算。不过,量化也会引入量化误差(Quantization Error)

    不同的计算硬件支持的精度,如下图所示 不同的计算硬件支持的精度

    当CPU遇到FP16精度的模型时,会自动转化为FP32,所以,在使用OpenVINO Model Optimizer时,通常可以指定数据精度为FP16,而使用INT8时,需要用calibration tool做精度校准。

    相关文章

      网友评论

          本文标题:使用OpenVINO Model Optimizer优化模型时选

          本文链接:https://www.haomeiwen.com/subject/vjvweltx.html