beit_finetuning/utils.py [282:290]:
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
    else:
        print('Not using distributed mode')
        args.distributed = False
        return

    args.distributed = True

    torch.cuda.set_device(args.gpu)
    args.dist_backend = 'nccl'
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -



utils.py [81:89]:
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -
    else:
        print('Not using distributed mode')
        args.distributed = False
        return

    args.distributed = True

    torch.cuda.set_device(args.gpu)
    args.dist_backend = 'nccl'
- - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - - -



