Tenserflow lite 踩坑记

作者: offbye西涛 | 来源:发表于2018-02-14 18:40 被阅读550次

Tenserflow lite是谷歌在2017年11月推出的轻量级移动端预测框架,目前已经支持Android和iOS,并且支持iOS的CoreML。TensorFlow是针对手机和嵌入式设备提供的轻量级解决方案。它提供了低延迟和小体积的端侧机器学习预测能力。TensorFlow Lite同时支持通过Android Neural Networks API硬件加速。

imageimage

TensorFlow Lite使用了很多技术实现低延迟,例如为特定的手机App优化内核,预置激活函数(pre-fused activations),允许运行小而快的量化过的模型的量子化内核。未来厂商还可以使用特定的机器学习硬件, 让某个模型在某个特定设备上获得最好的运算性能。

tflite同时提供了toco脚本工具,可以把tensorflow pb模型转化成tflite格式,一种基于flatbuffer的加载更快的序列化格式。tflite只能加载tflite格式的模型,不能加载以前tensorflow android使用的pb模型。

目前tflite官方支持的op还很少,因此很多复杂模型都没法在tflite上运行,目前实验转换成功的只有mobilenet模型, inceptionV3、ssd-mobilenet等模型都没法用toco转换成功,因为模型用到的op不支持。

Android tflite demo默认的tensorflow/contrib/lite/java/demo/app/src/main/java/com/example/android/tflitecamerademo/ImageClassifier.java只支持量化后的tflite模型, 具体的转换参考下面的命令。

如果需要使用没有量化的模型,需要修改ImageClassifier的代码,。具体参考
https://stackoverflow.com/questions/47463204/tensorflow-lite-convert-error-for-the-quantized-graphdef
https://github.com/tensorflow/tensorflow/issues/14719
修改代码后, 可以运行inceptionv3_slim_2016.tflite模型,这个模型没有量化过,预测速度很慢,预测一次大概需要1200ms,比tensorflow android的500ms还有慢。

toco转换模型和生成Demo App


# 测试通过,
 bazel-bin/tensorflow/contrib/lite/toco/toco \
 --input_file=PATH/model/mobilenet_v1_1.0_224/frozen_graph.pb \
--output_file=PATH/tensorflow/tensorflow/contrib/lite/java/demo/app/src/main/assets/mobilenet_v1_50_128q.tflite \
  --input_format=TENSORFLOW_GRAPHDEF \
  --output_format=TFLITE \
  --inference_type=QUANTIZED_UINT8 \
  --input_shape=1,224,224,3 \
  --input_array=input \
  --output_array=MobilenetV1/Predictions/Reshape_1 \
  --default_ranges_min=0 \
  --default_ranges_max=6 \
  --mean_value=128 \
  --std_value=128

#修改Android相关的代码,使用新的模型,编译app
bazel build --cxxopt=--std=c++11 //tensorflow/contrib/lite/java/demo/app/src/main:TfLiteCameraDemo

Android tflite demo也可以通过Android Studio编译生成,具体参考官方文档

实测发现, 使用toco脚本转换tflite模型时,目前支持的op有限, ssd-mobilenet模型不能正确转换,提示有op不支持。
tflite目前还很不完善,在生产环境中使用有很多限制,但运行速度确实很快,mobilenet1.0模型使用tflite做一次推断只需要80ms。

相关文章

  • Tenserflow lite 踩坑记

    Tenserflow lite是谷歌在2017年11月推出的轻量级移动端预测框架,目前已经支持Android和iO...

  • Tensorflow Lite 采坑记

    Tensorflow Lite 采坑记 操作符支持有限目前Tensorflow Lite中支持的Operator十...

  • Android Material Design 踩坑记(2)

    Android Material Design 踩坑记(1) CoordinatorLayout Behav...

  • Deepin使用踩坑记

    1. 前言 很喜欢Deepin,奈何坑太多,不过不怕,踩过去~ 2. 踩坑记 2.1 Deepin重启后文件管理器...

  • SpringStreaming+Kafka

    摘自 :Spark踩坑记——Spark Streaming+Kafka [TOC] SpringStreaming...

  • 原生App植入React Native 踩坑记

    原生App植入React Native 踩坑记 为什么我踩坑了有一个需求要去可以在当前工程的feature/RN ...

  • [ANR Warning]onMeasure time too

    ConstraintLayout 踩坑记一次封装组合控件时的坑,我才用了集成 ConstraintLayout 来...

  • IdentityServer 部署踩坑记

    IdentityServer 部署踩坑记 Intro 周末终于部署了 IdentityServer 以及 Iden...

  • 踩坑记

    1、android自签名证书Glide加载不出图片 关于https中自签名证书的介绍以及OkHttp中解决自签名证...

  • 踩坑记

    6月初,看到广西龙脊梯田有个疏秧节,很是心动!我十几年前就去过龙脊,当时觉得整片的梯田又美又壮观,壮族风情浓厚,就...

网友评论

  • ebe7786305d2:mobilenet1.0模型使用tflite做一次推断只需要80ms。这个模型是量化过的吗,运行这个模型的设备型号是什么?

本文标题:Tenserflow lite 踩坑记

本文链接:https://www.haomeiwen.com/subject/zoqigxtx.html