集成 tensorFlow模型到 iOS

作者: osbornZ | 来源:发表于2018-08-17 18:35 被阅读3次

    原文

    iconicon

    苹果在2017WWDC上发布了 CoreML 框架,它可以支持集成机器学习到iOS应用. 官方提供了多种模型支持,详情参照官当文档Apple Core ML,他们已经可以直接集成到你的iOS应用中使用。

    但是你必须使用深度学习训练你的模型呢 ? 幸运的是谷歌提供了一套开源的深度学习框架TensorFlow
    它能够基于数值计算创建深度学习图。这就意味着你可以训练出适应自己需求的模型库。但遗憾的是iOS应用程序使用TensorFlow创建的许多不同的模型,需要消耗大量工作。最近,谷歌发布了一个tf-coreml工具,支持了TensorFlow 模型转换到 CoreML 模型。

    下面我将阐述怎么使用tfcoreml 工具进行模型转换,这个过程比较负责,花费了我好几天的时间。特别要感谢期间谷歌工具团队的持续支持。

    Installing tfcoreml(安装 tfcoreml)

    这里有好几种安装方式,最快的办法则是使用 pip

    pip install -U tfcoreml
    
    

    在书写本文时我建议不要使用上述方法。原因是对tfcoreml工具的Master分支源代码有一些修复。从源代码安装你必须对仓库进行Clone

    git clone https://github.com/tf-coreml/tf-coreml.git
    
    

    完成之后,进入到文件夹下面执行如下命令

    python setup.py bdist_wheel
    
    

    最后,使用命令添加安装包

    pip install -e .
    
    

    至此你就已经成功安装了 tfcoreml 工具。

    Converting TensorFlow Model(转换模型)

    在进行转换之前,我们先进行了解下TensorFlow模型,你可以在文档最后看到几个兼容型号,我们Demo需要使用“Inception v1 (Slim)”,下载完成后你会发现里面包含两个文件:

    1. inception_v1_2016_08_28_frozen.pb
    2. imagenet_slim_labels.txt

    第一个是模型pb文件,第二个则是类标签文件,他会作为识别后的预测结果值。
    文档中你会发现下面的转换代码:

    import tfcoreml as tf_converter
    tf_converter.convert(tf_model_path = 'my_model.pb',
                         mlmodel_path = 'my_model.mlmodel',
                         output_feature_names = ['softmax:0'])
    
    

    我使用了上面的代码创建一个Python的可执行文件 convertor.py,而且使用了我正确文件名替换了变量。

    import tfcoreml as tf_converter
    tf_converter.convert(tf_model_path = 'inception_v1_2016_08_28_frozen.pb',
                         mlmodel_path = 'InceptionV1.mlmodel',
                         output_feature_names = ['softmax:0'])
    

    终端中索引到模型所在文件夹下面,执行Python脚本文件

    python convertor.py 
    

    此处报错!!!

    欢迎来到将TensorFlow模型转换为Core ML的精彩世界!我知道你很想骂人。谷歌的解释说我需要传递正确的操作符才能使用tfcoreml工具。为了找到运算符,您可以将TensorFlow模型转换为文本摘要,并在文本文件中搜索运算符。
    TensorFlow工具已包含Python脚本,用于将模型转换为基于文本的概要。您可以在以下位置查看脚本的实现:

    tf-coreml/utils/inspect_pb.py
    

    我拷贝脚本文件到我的本地文件夹下以便更容易引用它。下面的代码显示了如何将TensorFlow模型转换为文本摘要。
    在文件末尾,您将看到特定模型的所有运算符的列表。

    现在,让我们搜索"Softmax",你会发现几个不同的条目。根据对应要素名称替换上面脚本文件,

    import tfcoreml as tf_converter
    tf_converter.convert(tf_model_path = 'inception_v1_2016_08_28_frozen.pb',
                         mlmodel_path = 'InceptionV1.mlmodel',
                         output_feature_names = ['InceptionV1/Logits/Predictions/Softmax:0'])
    

    重新编译后将生成Core ML模型“InceptionV1.mlmodel”。继续并双击生成的模型。这将在Xcode中打开它。

    虽然,模型已经成功创建,但对我们来说并不是真的有用,因为我们希望我们的模型将图像作为图像参数,并提供类标签来识别检测到的对象。幸运的是,我们已经可以访问类标签文件“imagenet_slim_labels.txt”,我们可以使用text_summary.txt文件找出提供image_input_names所需的参数,更新的“convertor.py”代码。

    我们将输入作为图像,输出作为预测词典和classLabel。
    让我们继续将此模型导入我们的iOS项目并查看预测。我已经有了一个Core ML iOS项目设置,可以从Github下载。我只是插入这个模型,这是我得到的结果。

    不幸的是,转换后的模型预测很有问题。在与Google开发人员交谈后,他们提出原因是因为图像需要在使用之前进行预处理。这意味着我们需要更新我们的“convertor.py”以包含图像的预处理。

    import tfcoreml as tf_converter
    tf_converter.convert(tf_model_path = 'inception_v1_2016_08_28_frozen.pb',
                         mlmodel_path = 'InceptionV1.mlmodel',
                         output_feature_names = ['InceptionV1/Logits/Predictions/Softmax:0'],
                         image_input_names = 'input:0',
                         class_labels = 'imagenet_slim_labels.txt',
                         red_bias = -1,
                         green_bias = -1,
                         blue_bias = -1,
                         image_scale = 2.0/255.0
                         )
    

    再次从终端运行“convertor.py”,它将生成一个新模型。将模型导入iOS应用程序,您将看到现在预测正常。
    最后恭喜你完成了模型转换并集成到了你的项目中,如果您想了解有关Core ML的更多信息,请查看课程iOS的Core ML

    相关文章

      网友评论

        本文标题:集成 tensorFlow模型到 iOS

        本文链接:https://www.haomeiwen.com/subject/qhvtiftx.html