苹果在2017WWDC上发布了 CoreML 框架,它可以支持集成机器学习到iOS应用. 官方提供了多种模型支持,详情参照官当文档Apple Core ML,他们已经可以直接集成到你的iOS应用中使用。
但是你必须使用深度学习训练你的模型呢 ? 幸运的是谷歌提供了一套开源的深度学习框架TensorFlow
它能够基于数值计算创建深度学习图。这就意味着你可以训练出适应自己需求的模型库。但遗憾的是iOS应用程序使用TensorFlow创建的许多不同的模型,需要消耗大量工作。最近,谷歌发布了一个tf-coreml工具,支持了TensorFlow 模型转换到 CoreML 模型。
下面我将阐述怎么使用tfcoreml 工具进行模型转换,这个过程比较负责,花费了我好几天的时间。特别要感谢期间谷歌工具团队的持续支持。
Installing tfcoreml(安装 tfcoreml)
这里有好几种安装方式,最快的办法则是使用 pip
pip install -U tfcoreml
在书写本文时我建议不要使用上述方法。原因是对tfcoreml工具的Master分支源代码有一些修复。从源代码安装你必须对仓库进行Clone
git clone https://github.com/tf-coreml/tf-coreml.git
完成之后,进入到文件夹下面执行如下命令
python setup.py bdist_wheel
最后,使用命令添加安装包
pip install -e .
至此你就已经成功安装了 tfcoreml 工具。
Converting TensorFlow Model(转换模型)
在进行转换之前,我们先进行了解下TensorFlow模型,你可以在文档最后看到几个兼容型号,我们Demo需要使用“Inception v1 (Slim)”,下载完成后你会发现里面包含两个文件:
- inception_v1_2016_08_28_frozen.pb
- imagenet_slim_labels.txt
第一个是模型pb文件,第二个则是类标签文件,他会作为识别后的预测结果值。
文档中你会发现下面的转换代码:
import tfcoreml as tf_converter
tf_converter.convert(tf_model_path = 'my_model.pb',
mlmodel_path = 'my_model.mlmodel',
output_feature_names = ['softmax:0'])
我使用了上面的代码创建一个Python的可执行文件 convertor.py,而且使用了我正确文件名替换了变量。
import tfcoreml as tf_converter
tf_converter.convert(tf_model_path = 'inception_v1_2016_08_28_frozen.pb',
mlmodel_path = 'InceptionV1.mlmodel',
output_feature_names = ['softmax:0'])
终端中索引到模型所在文件夹下面,执行Python脚本文件
python convertor.py
此处报错!!!
欢迎来到将TensorFlow模型转换为Core ML的精彩世界!我知道你很想骂人。谷歌的解释说我需要传递正确的操作符才能使用tfcoreml工具。为了找到运算符,您可以将TensorFlow模型转换为文本摘要,并在文本文件中搜索运算符。
TensorFlow工具已包含Python脚本,用于将模型转换为基于文本的概要。您可以在以下位置查看脚本的实现:
tf-coreml/utils/inspect_pb.py
我拷贝脚本文件到我的本地文件夹下以便更容易引用它。下面的代码显示了如何将TensorFlow模型转换为文本摘要。
在文件末尾,您将看到特定模型的所有运算符的列表。
现在,让我们搜索"Softmax",你会发现几个不同的条目。根据对应要素名称替换上面脚本文件,
import tfcoreml as tf_converter
tf_converter.convert(tf_model_path = 'inception_v1_2016_08_28_frozen.pb',
mlmodel_path = 'InceptionV1.mlmodel',
output_feature_names = ['InceptionV1/Logits/Predictions/Softmax:0'])
重新编译后将生成Core ML模型“InceptionV1.mlmodel”。继续并双击生成的模型。这将在Xcode中打开它。
虽然,模型已经成功创建,但对我们来说并不是真的有用,因为我们希望我们的模型将图像作为图像参数,并提供类标签来识别检测到的对象。幸运的是,我们已经可以访问类标签文件“imagenet_slim_labels.txt”,我们可以使用text_summary.txt文件找出提供image_input_names所需的参数,更新的“convertor.py”代码。
我们将输入作为图像,输出作为预测词典和classLabel。
让我们继续将此模型导入我们的iOS项目并查看预测。我已经有了一个Core ML iOS项目设置,可以从Github下载。我只是插入这个模型,这是我得到的结果。
不幸的是,转换后的模型预测很有问题。在与Google开发人员交谈后,他们提出原因是因为图像需要在使用之前进行预处理。这意味着我们需要更新我们的“convertor.py”以包含图像的预处理。
import tfcoreml as tf_converter
tf_converter.convert(tf_model_path = 'inception_v1_2016_08_28_frozen.pb',
mlmodel_path = 'InceptionV1.mlmodel',
output_feature_names = ['InceptionV1/Logits/Predictions/Softmax:0'],
image_input_names = 'input:0',
class_labels = 'imagenet_slim_labels.txt',
red_bias = -1,
green_bias = -1,
blue_bias = -1,
image_scale = 2.0/255.0
)
再次从终端运行“convertor.py”,它将生成一个新模型。将模型导入iOS应用程序,您将看到现在预测正常。
最后恭喜你完成了模型转换并集成到了你的项目中,如果您想了解有关Core ML的更多信息,请查看课程iOS的Core ML。
网友评论