美文网首页
Slrum 分布式训练+提交作业

Slrum 分布式训练+提交作业

作者: IT_小马哥 | 来源:发表于2022-05-23 22:05 被阅读0次

创建分布式+采样

    if hparams.multi_gpu:
        logger.info('-------------  分布式训练 -----------------')
        torch.distributed.init_process_group(backend='nccl')
        local_rank = torch.distributed.get_rank()
        torch.cuda.set_device(local_rank)
        device = torch.device("cuda", local_rank)  # local_rank是当前的一个gpu
        nprocs = torch.cuda.device_count()
        
        # 分布式采样
        train_sampler = torch.utils.data.distributed.DistributedSampler(train_data, shuffle=True)
        valid_sampler = torch.utils.data.distributed.DistributedSampler(valid_data, shuffle=False)
        test_sampler = torch.utils.data.distributed.DistributedSampler(test_data, shuffle=False)
    
        train_loader = DataLoader(train_data, batch_size=hparams.batch_size, collate_fn=collate, sampler=train_sampler)
        valid_loader = DataLoader(valid_data, batch_size=hparams.batch_size, collate_fn=collate, sampler=valid_sampler)
        test_loader = DataLoader(test_data, batch_size=hparams.batch_size, collate_fn=collate, sampler=test_sampler)

模型部署

     model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[local_rank],output_device=local_rank)

由于模型已被包装,这时候直接调用模型组件会报错,比如:model.fc, 会显示没有属性, 因此一下操作

if isinstance(model, torch.nn.DataParallel) or isinstance(model,torch.nn.parallel.DistributedDataParallel):
      model = model.module

损失loss、 梯度和准确度等整合。 由于不同的GPU加载的数据不一样,会导致算出来的Loss、acc等不一样,需要合并

def average_gradients(model):
    """ Gradient averaging. """
    size = float(dist.get_world_size())
    for param in model.parameters():
        if param.grad is None:
            continue
        dist.all_reduce(param.grad.data, op=dist.ReduceOp.SUM)
        param.grad.data /= size
def reduce_mean(tensor, nprocs):
    rt = torch.tensor(tensor).to(device).clone()
    dist.all_reduce(rt, op=dist.ReduceOp.SUM)  # sum-up as the all-reduce operation
    rt /= nprocs  # NOTE this is necessary, since all_reduce here do not perform average
    return rt

应用的时候

        total_loss += loss.item()
        # 多个GPU需要进行整合
        if hparams.multi_gpu:
            average_gradients(model)
        loss.backward()
        optimizer.step()
        scheduler.step()
        if hparams.multi_gpu:
            acc = reduce_mean(acc, nprocs)
  • SLurm 提交作业,提交 *.sh文件, 或在bash交互环境中直接输入命令即可。者当你提交作业后, print函数等会多个进行输出,那表示是正确的
# Distributed-DataParallel (Multi-GPUs)
env CUDA_VISIBLE_DEVICES=0,1 python -m torch.distributed.launch --nproc_per_node=2\
 train.py \
 --dataset Subj \
 --epochs 50 \
 --learning_rate 0.0005\
 --batch_size 128 \
 --multi_gpu

相关文章

  • Slrum 分布式训练+提交作业

    创建分布式+采样 模型部署 由于模型已被包装,这时候直接调用模型组件会报错,比如:model.fc, 会显示没有属...

  • 学员+19组+李娜+【202002训练营-第3周-复盘】

    1、本周的训练营,我的目标是什么? (1)坚持每天听课、每天按时提交作业 (2)缩短写作业的时间,提前提交作业,...

  • 一篇听书稿作业被评为优秀作业

    昨天晚上拆解稿与听书稿训练营结营,在优秀作业评选中,自己提交的那篇作业《思维力,高效的系统思维》提交的作业经过点评...

  • 【2班2组】day28结营总结

    【学员信息】20-RachelWu-总结 【作业要求】:小作业:本次训练营的复盘文提交到简书 【作业如下】 ...

  • 20190312-用碎片时间来写作

    3月12日,BM写作训练营,作业数14个,已提交9个,未提交4个,正在写的1个。已提交的9个作业,几乎没有意外的都...

  • 分布式事务

    对分布式事务及两阶段提交、三阶段提交的理解 关于分布式事务、两阶段提交协议、三阶提交协议

  • 如何每日打卡提交作业

    参加写作营,提交作业是必须的。如何每日打卡提交作业呢? 第一步:找到打卡小程序“笑来写作训练营” 如何找到? 请到...

  • 分布式事务

    目录 简介 单一分布式事务与嵌套分布式事务 原子提交协议两阶段提交协议嵌套事务的两阶段提交协议 分布式事务的并发控...

  • 2018-11-24

    1);本周的训练营,我的目标是什么? 本周的训练营我的目标是:按时提交作业;每篇作业90分以上。 2);整个技能讲...

  • 成长最美2

    ——五维教练领导力训练营的心路成长历程 当我于6.29日如期按时完成作业,提交了教练训练营的作业;并于7.4日提前...

网友评论

      本文标题:Slrum 分布式训练+提交作业

      本文链接:https://www.haomeiwen.com/subject/xwsdprtx.html