美文网首页
tensorflow分布式训练ps负载不均衡问题

tensorflow分布式训练ps负载不均衡问题

作者: 钢镚儿_e134 | 来源:发表于2020-10-15 21:45 被阅读0次

在使用euler0.1.2框架分布式训练GCN的工作中,遇到了这样一个问题:

  • 在使用多个ps时,其中一个ps承载了大部分的参数,而其余的ps都在“划水”
  • 当gcn的节点数量以及参数数量变多以后,ps的内存上限会成为训练的瓶颈,因为无法通过增加ps的数量,来放置增多的参数

好心的同事告诉了我这样一个方法:可以通过分割参数,来达到平均分配到每个ps的目的。具体实现,借助了tensorflow的两个接口:

  • tf.fixed_size_paritioner
  • tf.get_variable

参考博客:
https://blog.csdn.net/u013431916/article/details/80330813
https://moontree.github.io/2020/09/07/tf-embedding-lookup/

1.看下面的代码:

cluster = tf.train.ClusterSpec({
      'ps': flags_obj.ps_hosts,
      'worker': flags_obj.worker_hosts
  })
  server = tf.train.Server(
      cluster, job_name=flags_obj.job_name, task_index=flags_obj.task_index)

  if flags_obj.job_name == 'ps':
    server.join()
  elif flags_obj.job_name == 'worker':
    with tf.device(
        tf.train.replica_device_setter(
            worker_device='/job:worker/task:%d' % flags_obj.task_index,
            cluster=cluster):
     partitioner = tf.fixed_size_paritioner(num_ps, axix=0)
     embeddings = tf.get_variable(
        'embeddings',
        shape=[num, dim],
        initializer=tf.truncated_normal_initializer(),
        partitioner=partitioner)

遗憾的是,问题并没有得到解决

2.继续查询资料,发现tf.train.replica_device_setter这个函数主要实现变量在ps上初始化,其中提供了一个参数ps_strategy,即变量初始化的策略,这参数是可选的,不填的话默认循环去初始化。而官方提供的初始化策略还有两种:
2.1 随机初始化:tf.contrib.training.RandomStrategy
2.2 初始化时,每次选负载最小的ps分配参数(GLBS):
tf.contrib.training.GreedyLoadBalancingStrategy

参考博客:https://blog.csdn.net/u012133034/article/details/81167040

采用GLBS策略,理论上是更合理的方式,遗憾的是问题还没解决

3.分析之后,发现之前是按照ps的数量还决定参数划分的份数,可能粒度还是太大,于是将分割的份数设为1000,至此,问题解决

相关文章

  • tensorflow分布式训练ps负载不均衡问题

    在使用euler0.1.2框架分布式训练GCN的工作中,遇到了这样一个问题: 在使用多个ps时,其中一个ps承载了...

  • 《分布式技术原理与算法解析》学习笔记Day25

    负载均衡 负载均衡是分布式可靠性中非常关键的一个问题,它在一定程度上反映了分布式系统对业务处理的能力。 什么是负载...

  • 数据结构与算法之一致性哈希

    1、分布式缓存问题 在做服务器负载均衡时可供选择的负载均衡的算法有很多,如: 轮循算法(Round Robin) ...

  • 【转载】负载均衡算法实现java与场景分析

    负载均衡算法实现分布式系统中负载均衡算法在高可用场景下的分析

  • 网站简单部署架构

    负载均衡:通过负载均衡解决网站访问压力问题 分布式缓存和本地缓存:减少数据库访问压力,提高网站访问速度 数据库主从...

  • 负载均衡

    负载均衡图例负载均衡.png 负载均衡策略 轮询 ip_hash 均衡参数 down 表示当前的服务不参与负载均衡...

  • 负载均衡

    负载均衡是分布式系统的一个重要手段,是达到高可用、高性能架构设计要素的重要手段。 按照问题考虑的层次,对于负载均衡...

  • 【第二节】单机,集群,分布式

    什么是单机、集群、分布式 集群,分布式的意义 负载均衡

  • Dubbo负载均衡

    一、负载均衡的方式 在分布式集群架构下,负载均衡很重要。集群本来就是为了分担压力,负载均衡做的不好,就会失去了集群...

  • 一致性hash算法

    前言 在分布式系统中,很多服务需要进行负载均衡,负载均衡算法中,如果有映射需求且允许少量不可达重新映射,比如分布式...

网友评论

      本文标题:tensorflow分布式训练ps负载不均衡问题

      本文链接:https://www.haomeiwen.com/subject/oszopktx.html