美文网首页
TensorFlow中的多线程

TensorFlow中的多线程

作者: hzyido | 来源:发表于2017-08-06 15:20 被阅读1820次

TensorFlow提供两个类帮助实现多线程,一个是tf.train.Coordinator,另一个是tf.train.QueueRunner。Coordinator主要用来实现多个线程同时停止,QueueRunner用来创建一系列线程。

Coordinator

根据官方文档,Coordinator主要有三个方法:

  • tf.train.Coordinator.should_stop: returns True if the threads should stop.
  • tf.train.Coordinator.request_stop: requests that threads should stop.
  • tf.train.Coordinator.join: waits until the specified threads have stopped.

接下来我们实验Coordinator,下面的代码主要实现每个线程独立计数,当某个线程达到指定值的时候,所有线程终止:

#encoding=utf-8
import threading
import numpy as np
import tensorflow as tf
#创建一个函数实现多线程,参数为Coordinater和线程号
def func(coord, t_id):
    count = 0
    while not coord.should_stop(): #不应该停止时计数
        print('thread ID:',t_id, 'count =', count)
        count += 1
        if(count == 5): #计到5时请求终止
            coord.request_stop()
coord = tf.train.Coordinator()
threads = [threading.Thread(target=func, args=(coord, i)) for i in range(4)]
#开始所有线程
for t in threads:
    t.start()
coord.join(threads) #等待所有线程结束
运行结果如下,当0号线程打印出4时,其他线程不再计数,程序终止。

总结

这两个类是实现TensorFlow pipeline的基础,能够高效地并行处理数据。个人认为在数据较大时,应该避免使用feed_dict。因为,feed_dict是利用python读取数据,python读取数据的时候,tensorflow无法计算,而且会将数据再次拷贝一份。

原文: TensorFlow中的多线程

相关文章

网友评论

      本文标题:TensorFlow中的多线程

      本文链接:https://www.haomeiwen.com/subject/dpaglxtx.html