美文网首页
java加载tensorflow模型预测

java加载tensorflow模型预测

作者: lzhenboy | 来源:发表于2020-11-03 17:19 被阅读0次

    算法同学通常会利用python做tensorflow深度学习模型的训练和测试,但当离线模型训练好之后,往往需要将模型部署上线,将其应用到web端或app应用调用,甚至分布式任务使用等等。
    本文将介绍一下,如何利用java加载tensorflow的pb模型,实现模型的在线推理和预测。
    JAVA API 参考文档:

    https://tensorflow.google.cn/api_docs/java/reference/org/tensorflow/package-summary

    注意:TensorFlow Java API 本质上是用Java封装了C++的动态库,而且Java API不在 TensorFlow API 稳定性保障的涵盖范围内。

    1、环境搭建

    目前java引擎的开发通常会使用maven进行jar包管理,首先需要在pom.xml中添加以下依赖以加载对应jar包。
    Ps:至于java 的tensorflow的版本,要和python训练时用的tensorflow的版本一致。
    depandency方法1:

    <!-- https://mvnrepository.com/artifact/org.tensorflow/tensorflow -->
    <dependency>
        <groupId>org.tensorflow</groupId>
        <artifactId>tensorflow</artifactId>
       <version>1.15.0</version>
    </dependency>
    

    depandency方法2:

    <dependency>
        <groupId>org.tensorflow</groupId>
        <artifactId>libtensorflow</artifactId>
        <version>1.15.0</version>
    </dependency>
    <dependency>
        <groupId>org.tensorflow</groupId>
        <artifactId>proto</artifactId>
        <version>1.15.0</version>
    </dependency>
    <dependency>
        <groupId>org.tensorflow</groupId>
        <artifactId>libtensorflow_jni</artifactId>
        <!--artifactId>libtensorflow_jni_gpu</artifactId-->
        <version>1.15.0</version>
    </dependency>
    

    2、Java加载tensorflow模型

    /**
     * @author lzhenboy
     * @date 2020-01-02
     */
    import org.ansj.domain.Term;
    import org.tensorflow.SavedModelBundle;
    import org.tensorflow.Session;
    import org.tensorflow.Tensor;
    
    import java.nio.charset.StandardCharsets;
    import java.util.List;
    
    /**
     * Tensorflow pb模型加载 & 预测
     */
    public class TfModelLoader {
        private final Session session;
    
        public TfModelLoader(String modelPath, String modelTag) {
            SavedModelBundle modelBundle = SavedModelBundle.load(modelPath, modelTag);
            this.session = modelBundle.session();
        }
    
        public TfModelLoader(String modelPath) {
            SavedModelBundle modelBundle = SavedModelBundle.load(modelPath, "serve");
            this.session = modelBundle.session();
        }
    
        public float[] predict(List<Term> terms) {
            int termSize = terms.size();
    
            byte[][][] wordsBytes = new byte[1][termSize][];
            int[] nwords = new int[]{wordsBytes[0].length};
            for (int i = 0; i < termSize; ++i) {
                byte[] nameBytes = terms.get(i).getName().getBytes(StandardCharsets.UTF_8);
                wordsBytes[0][i] = nameBytes;
            }
    
            try (Tensor<?> wordsTensor = Tensor.create(wordsBytes);
                 Tensor<?> nwordsTensor = Tensor.create(nwords)) {
                Tensor<?> result = session.runner()
                        .feed("words", wordsTensor)
                        .feed("nwords", nwordsTensor)
                        .fetch("predict").run().get(0);
                float[][] preds = new float[1][wordsBytes[0].length];
                result.copyTo(preds);
    
                // Tensor Close
                result.close();
                return preds[0];
            } catch (Throwable e) {
                log.error("Model Predict Exception: ", e);
            }
            return null;
        }
    }
    

    需要注意的是,参与计算的tensor都要close,以防止内存泄漏(tensorflow底层代码是c++实现,内存管理不受java控制,因此需要人工close)。

    3、使用saved_model_cli

    如果你使用的是别人的模型,或者你想通过pb模型文件快速查看模型的输出输出标签,saved_model_cli提供了通过命令行检查并恢复模型的快捷方式,可以通过如下方式检查该模型的相关信息:

    saved_model_cli show --dir=graph_dir --all
    eg:
    saved_model_cli show --dir ./saved_model/1604666267 --all
    

    结果如下:

    saved_model_cli.png
    从上图可以看出:
    模型的tag为serve
    模型input_placeholder为:(1) word (2) nword
    模型output为:logits

    参考文献

    Java 版 TensorFlow
    Java加载tensorflow模型(单机加载或分布式加载)

    相关文章

      网友评论

          本文标题:java加载tensorflow模型预测

          本文链接:https://www.haomeiwen.com/subject/ipqivktx.html