美文网首页
Scaling Distributed Machine Lear

Scaling Distributed Machine Lear

作者: 西部小笼包 | 来源:发表于2019-12-29 20:37 被阅读0次

    论文地址 : PS

    为什么要阅读这篇论文?

    1. 他是可调节的一致性,RELAXED CONSISTENCY
    2. 他在业界很有影响力
    3. 一种不同的分布式的计算模式

    前言

    在机器学习领域,模型是一个函数逼近器。
    对一个事物的预测,绝对正确的FUNCTION是未知的。但是我们可以学习出一个较高准确率的预测模型出来。
    比如根据用户的PROFILE信息,来分析他可能的点击率。
    或者给一个图片,我们可以用一个模型来判断里面是否有猫。

    一般机器学习有2个阶段:

    1. 训练阶段
    2. 推断阶段

    在训练阶段,我们会暴露模型给很多样例数据,里面分为2种训练方式,监督的表示知道正确答案,我们可以检验模型的RESPONSE。还有一种是非监督的,正确答案未知,我们需要评估模型质量用其他方法。
    在推断阶段,我可以用运用训练模型来预测某些没见到过的数据。
    而这篇论文parameter server就是使得训练阶段更加高效。

    为了训练,参数是大量的,成千上万。同时也需要成千上万次迭代来优化参数。
    一个经典的算法是梯度下降。他的运作方式是这样的,训练,随后计算变化,更新,然后再训练。一直到一个最优状态。
    迭代是很短暂地,可能不到一秒。

    利用分布式架构训练。我们可以需要很多个WORKER来一起训练。因为训练数据非常庞大,对单机来说。同时多台机器可以增加并行,加速训练过程。还有一个原因是可能参数过于庞大也超过了单机的承受范围。

    所有WORKER都需要能访问到他们想要的参数,基于上述,我们得出一个计划。
    分区的训练数据,他们跑在不同的WORKER上,随后有一个分布式的参数服务器集群,让WORKER去随时拿自己需要的参数。

    那么我们该如何更新参数呢?

    1.方案1,就是在每次迭代完,WORKER交换他们的参数变化。这样因为所有WORKER要和所有WORKER通讯,会带来庞大的网络流量,同时任何一个WORKER都需要等待其他WORKER的通讯才能进入下一个迭代,不是很高效。

    2.方案2, 那么我们用一个集中式的协调者来让所有WORKER把该轮迭代训练完的成功交给协调者,由协调者统一发送给其他WORKER。这会带来另外的问题。如,协调者压力过大,是个单点失效,同时如果WORKER需要的参数此时协调者也不一定有。

    1. 方案3, 基于SPARK来训练。 那么每轮的迭代参数就是个RDD。同样还是老问题,不高效,因为SPARK是串行的,必须等上一轮迭代结束才能到下一轮。因为一些WORKER可能需要一些新的参数,从最坏的考虑,我们不能应用窄连接了

    那么这篇论文就是提出了一种高效的解决架构

    参数服务器是一种编程框架,用于简化分布式机器学习程序的编写,其中重点在于对大规模参数的分布式存储和协同的支持。

    机器学习任务相比于其他计算任务而言,具有以下特点:

    • 迭代性:模型的更新并非一次完成,需要多次迭代
    • 容错性:即使在每次迭代中产生一些错误,模型最终仍能收敛
    • 参数收敛非统一性:各参数收敛需要的迭代次数不同

    同时对于工业界中的大规模机器学习而言,具有以下特点:

    • 模型参数很大,超过单台机器的容纳能力
    • 训练数据很大,需要并行加速

    此外,设计一个上述系统时,我们还需要解决一系列问题,例如如何降低频繁更新模型参数消耗的大量带宽,如何提高并行度,减少同步等待造成的延迟,以及如何设计容错机制等等。显然 MapReduce 等框架不能满足这些需求,而参数服务器即为解决这种需求提出的。

    发展历史

    参数服务器的概念最早来自于 Alex Smola 于2010年提出的并行 LDA 框架,它采用 Memcached 分布式存储参数,提供了有效的机制用于分布式系统中 worker 之间同步模型参数,而每个 worker 只需要保存其计算时所需要的一小部分参数即可。

    后来由 Google 的 Jeff Dean 进一步提出了 Google 第一代深度学习系统:DistBelief。DistBelief 将巨大的深度学习模型分布存储在参数服务器中,计算节点通过参数服务器进行通信,很好地解决了 SGD 和 L-BFGS 算法的分布式训练问题。

    本文作者李沐提出第三代参数服务器。

    设计原则

    • 高效的网络通信:因为模型参数和训练数据都十分巨大,高效的网络通信是大规模机器学习系统不可或缺的,通过支持异步通信,可以大大减少延迟
    • 灵活的一致性模型:提供 BSP,ASP,SSP 三种一致性模型,允许开发人员在算法收敛速率和系统性能之间进行权衡
    • 弹性可扩展:对于任务时效性要求的变化而随时更改集群机器配置的需求,系统需要能在不影响任务的情况下做到机器的热插拔,通过使用一致性哈希算法,新增加的节点可以随时插入到系统中,无需重启系统
    • 容错性:大规模集群协作进行计算任务时,不可避免会出现故障或者计算任务的资源被抢占等情况,因此系统设计时就要考虑如何应对。对于 server,使用链备份;而对于 worker,因为 worker 之间互相不通信,因此在某个 worker 失效后,新的 worker 可以直接加入
    • 易用性:全局共享参数被表示为稀疏的 vector 或 matrices 等线性代数对象,从而在计算参数时可以使用 BLAS 等线性代数库进行优化

    系统架构

    image

    如上图所示,参数服务器的节点被划分到一个 server group 和多个 worker group ,server group 中的每个 server 只负责自己分到的部分全局共享参数。server 之间相互通信进行参数的备份、迁移。server group 有一个 server manager,负责维护 server 元数据的一致性,例如节点状态,参数的分配情况。

    每个 worker group 运行一个计算任务,worker group 中的 worker 使用部分数据进行训练,worker 之间没有通信,只和对应的 server 通信进行参数更新。每个 worker group 有一个 task scheduler,负责向 worker 分配任务,并监控他们的运行情况,当有 worker 进入或者退出时,task scheduler 重新分配未完成的任务。

    此外,参数服务器复用现有的资源管理系统,如 Yarn、Mesos 或者 Kubernetes 作为 resource manager;训练数据则使用分布式文件系统存储,一般是 HDFS。

    image

    如上图所示,一个具体任务运行时,task scheduler 负责通知每个 worker 加载自己对应的数据,然后从 server 上拉取一个要更新的参数分片,用本地数据计算参数分片对应的变化量,然后同步给 server;server 在收到自己负责的参数分片对应的所有 worker 的更新后,对参数分片做一次更新。

    (Key, Value) Vectors

    大多数已有的框架中将参数视作 (key, value) 对象进行抽象。例如对于常见的机器学习算法来说,key 是 feature ID,value 是其权重,对于不存在的 key,可认为其权值为0。而在本文中,还将参数视作稀疏的 vector 或 matrices 等线性代数对象(通过保证key是有序的情况下),从而在计算参数时可以使用 BLAS 等线性代数库进行优化。

    Range Push and Pull

    worker 和 server 之间通信是通过 push() 和 pull() 方法进行的。worker 通过 push() 将计算好的梯度发送到 server,然后通过 pull() 从 server 获取更新参数。

    为了简化编程,提高通信效率,允许用户使用 Range Push/Range Pull 操作。

    w.push(R, dest)
    w.pull(R, dest)
    

    Flexible Consistency

    众所周知,在分布式计算系统中,由于多个计算节点计算进度不可能完全一致,会导致在汇总结果时需要等待那些计算速度较慢的节点(Straggler),即慢节点会拖慢整个计算任务的进度,浪费计算资源。

    考虑到机器学习的特殊性,系统可以适当放宽同步限制,不需要每一轮都等待所有的计算节点完成计算,跑得快的计算任务,完全可以先把训练好的参数 push 上去,然后进行下一轮训练。这样可以减少等待时间,让整个计算任务更快。

    这样做会使得模型更新的时候,worker 的模型参数与 server 的模型参数可能会不一致,导致收敛速率下降甚至不收敛,但是在非凸问题(例如深度学习的优化)中,这反而是个好事,引入了随机性。因为非凸问题本身就不是梯度下降能够解决的,正常的单机迭代肯定会收敛到局部最优。有时我们常常会用一些额外的方法来跳出局部最优:

    • 多组参数值初始化
    • 模拟退火
    • 随机梯度下降

    而参数服务器正好利用异步性引入了随机性,有助于跳出局部最优。因此在 Google 的DistBelief 框架中,提出了 Downpour SGD 算法,就是尽最大可能利用了这种随机性。因此,异步通信在分布式机器学习系统中,是非常重要的功能之一。

    本文提出的参数服务器提供如下三个级别的一致性模型:

    image

    Sequential:一般的分布式计算采用的同步通信,例如 Spark。在每一轮迭代中都需要等待所有的任务计算完成。Sequential 也称为 BSP(Bulk Synchronous Parallel)

    • 优点:适用范围广;每一轮迭代收敛质量高
    • 缺点:每一轮迭代都需要等待最慢的任务,整体任务计算时间长
    image

    Bounded Delay:设置一个最大延时时间,称之为 staleness 值,允许一定程度的任务进度不一致,即最快的任务最多领先最慢的任务 staleness 轮迭代。因此 staleness = 0 时,即 Sequential 一致性模型;staleness = ∞ 时,即 Eventual 一致性模型。Bounded Delay 也称为 SSP(Stalness Synchronous Parallel)

    • 优点:一定程度减少了任务之间的等待时间,计算速度较快,允许开发人员在算法收敛速率和系统性能之间进行权衡
    • 缺点:每一轮迭代的收敛质量不如 BSP,达到同样的收敛效果可能需要更多轮的迭代;适用性也不如 BSP,部分算法不适用
    image

    Eventual:异步通信,任务之间完全不用相互等待,先完成的任务,继续下一轮的训练。Eventual 也称为 ASP(Asynchronous Parallel)

    • 优点:不用等待其他任务,计算速度快
    • 缺点:适用性差,收敛速率下降甚至不收敛
    image

    三种一致性模型的同步限制依次放宽。为了追求更快的计算速度,算法可以选择更宽松的一致性模型。在实际算法中,需要根据指标的变化情况,调整一致性模型以及相关的参数,以达到收敛性和计算速度的平衡。

    User-defined Filters

    支持用户自定义过滤器过滤部分 entries,从而减少网络带宽。常用的过滤器有 significantly modified filter,即只 push 变化大于某一阈值的 entries;KKT filter,利用最优化问题的一些条件来过滤对 weights 影响不大的 entries。

    具体实现

    Vector Clock

    参数服务器使用 range vector clock 来记录每个节点的参数的时间戳,用来跟踪数据状态或避免数据重复发送。由于参数都是 Range Push/Range Pull,因此同一个 key range 里的参数可以共享同一个时间戳,相较于传统的 vector clock 进行了压缩,降低了内存和网络带宽开销。 同时还可以防止一个Worker相比于其他Worker 进度过快

    Messages

    节点之间通信发送的 message 由 range vector clock 和 (key, value) 对组成。

    image

    由于频繁更新模型参数,需要对 message 进行压缩以减少网络带宽开销。参数服务器采用两种方法来压缩 message:

    • key 的压缩:训练数据在迭代时通常不会改变,因此 worker 没必要每次都发送相同的 key lists,server 第一次接收时缓存起来即可,后续只需要发送 key lists 的哈希值进行匹配。
    • value 的压缩:有些参数更新并非对最终优化有价值,因此用户可以自定义过滤规则来过滤掉一些不必要的参数。例如对于梯度下降,大量value 为 0 或者很小的梯度是低效的,可以过滤。

    Consistency and Replication

    参数服务器采用一致性哈希算法,将 key 和 server 按照某种哈希算法映射到环上。每一个 server 负责管理从插入点逆时针方向到另一个 server 之间的 key range,即将 key 存储到环上顺时针方向最近的 server 上,这个 server 被称为该 key range 的主 server;每个 server 会备份逆时针方向 k 个 key range,这个 server 称为该 key range 的备份 server。一个物理上的 server 通常会表示为多个虚拟化的 server,以提高负载均衡和故障恢复能力。

    image

    上图中,k= 2,server 1 对 server 2 和 server 3 的 key range 进行了备份。

    有两种方式保证主节点与备份节点之间的数据一致性:

    1. Chain Replication:如下左图所示,worker 1 更新 x,server 1 调用自定义的函数 f(x) 处理数据。然后将 f(x) 备份到 server 2,这次的 push 才算结束,woker1 收到 ack。该备份方式对于一些需要频繁更新参数的算法,可能造成难以承受的网络带宽开销。
    2. Replication after Aggregation:如下右图所示,server 将所有 worker 的更新聚合后进行备份,再发送 ack 给 worker。由于要等待聚合操作,会带来任务拉取更新的延时,然而可以通过放宽一致性模型来弥补。
    image

    Server Management

    添加 server:

    1. server manager 给新 server 分配 key range,其他 server 的 key range 做出相应更改
    2. 新 server 获取作为主 server 维护的 key range 和作为从 server 维护的 k 个 key range
    3. server manager 广播节点的更改

    删除 server:

    当 server manager 通过心跳信号发现 server 出现故障后,会将该 server 的 key range 分配给新的 server,并删除该 server

    Worker Management

    添加 woker:

    1. task scheduler 给新 worker 分配数据
    2. 该新 worker 载入训练数据,然后从 server 获取参数
    3. task scheduler 广播节点的更改,可能造成其他 worker 释放部分训练数据

    删除 woker:

    丢失小部分训练数据通常并不会影响模型训练结果,此外恢复一个 worker 比 server 需要更多的开销。因此删除 worker 通常是直接不管该节点,可以用于终止最慢的 worker,减缓 Straggler 带来的性能影响。当然用户也可以选择用新 worker 来替代丢失的 worker。

    容错

    如果worker挂了,我们只需要restart另外一台机器,然后加载训练数据,拉取所需参数,就可以继续。当然也可以不管它,因为一个WORKER对模型的结果影响不大。

    如果是server挂了,那么也没影响,因为请求会按照Hash环被引到下一个顺时针的机器上,而那台机器因为之前的链式复制策略,已经复制了挂掉的那台SERVER的数据了。

    所以当worker去更新server的参数的时候,server会先去同步replica,然后才响应worker。此时没有性能的问题,因为这些通讯都是异步的,与此同时worker可以去做其他工作。

    由上述我们可以看出,server的瓶颈在和worker通讯,已经和其他server通讯(replica)上,时间花在网络IO上。 而worker因为一直在训练数据,所以主要是花在CPU计算上。

    性能

    非常scale


    image.png

    非常少的等待时间


    image.png

    网络通讯方面的优化,尤其在server


    image.png

    relax consistency 的帮助


    image.png

    相关文章

      网友评论

          本文标题:Scaling Distributed Machine Lear

          本文链接:https://www.haomeiwen.com/subject/fecuoctx.html