ubuntu

Ubuntu PyTorch如何进行分布式训练

小樊
47
2025-05-22 07:26:52
栏目: 智能运维

在Ubuntu上进行PyTorch的分布式训练,你需要遵循以下步骤:

  1. 安装PyTorch: 确保你已经安装了PyTorch。你可以从PyTorch官网(https://pytorch.org/)获取适合你系统的安装命令。

  2. 设置环境变量: 为了使用多GPU训练,你需要设置一些环境变量。例如,如果你有4个GPU,你可以这样设置:

    export CUDA_VISIBLE_DEVICES=0,1,2,3
    
  3. 编写分布式训练脚本: PyTorch提供了torch.nn.parallel.DistributedDataParallel类来实现分布式训练。你需要修改你的训练脚本来使用这个类。

    以下是一个简单的例子,展示了如何使用DistributedDataParallel

    import torch
    import torch.nn as nn
    import torch.optim as optim
    from torch.nn.parallel import DistributedDataParallel as DDP
    from torch.utils.data import DataLoader
    from torchvision import datasets, transforms
    
    # 初始化进程组
    torch.distributed.init_process_group(backend='nccl')
    
    # 创建模型并移动到GPU
    model = nn.Sequential(
        nn.Linear(784, 1024),
        nn.ReLU(),
        nn.Linear(1024, 10)
    ).to(torch.device("cuda"))
    
    # 使用DistributedDataParallel包装模型
    model = DDP(model)
    
    # 定义损失函数和优化器
    criterion = nn.CrossEntropyLoss()
    optimizer = optim.SGD(model.parameters(), lr=0.01)
    
    # 加载数据集
    transform = transforms.Compose([transforms.ToTensor()])
    train_dataset = datasets.MNIST(root='./data', train=True, download=True, transform=transform)
    train_sampler = torch.utils.data.distributed.DistributedSampler(train_dataset)
    train_loader = DataLoader(dataset=train_dataset, batch_size=64, sampler=train_sampler)
    
    # 训练模型
    for epoch in range(10):
        train_sampler.set_epoch(epoch)
        running_loss = 0.0
        for i, data in enumerate(train_loader, 0):
            inputs, labels = data[0].to(torch.device("cuda")), data[1].to(torch.device("cuda"))
            optimizer.zero_grad()
            outputs = model(inputs.view(-1, 784))
            loss = criterion(outputs, labels)
            loss.backward()
            optimizer.step()
            running_loss += loss.item()
        print(f'Epoch {epoch + 1}, Loss: {running_loss / len(train_loader)}')
    
    # 清理进程组
    torch.distributed.destroy_process_group()
    
  4. 运行分布式训练脚本: 使用torch.distributed.launchaccelerate库来启动分布式训练。例如,如果你有4个GPU,你可以这样运行脚本:

    python -m torch.distributed.launch --nproc_per_node=4 your_training_script.py
    

    或者,如果你安装了accelerate库,你可以这样运行:

    accelerate launch your_training_script.py
    
  5. 注意事项

    • 确保所有节点上的PyTorch版本一致。
    • 确保所有节点都可以通过网络互相通信。
    • 确保所有节点上的CUDA版本一致。
    • 如果你在云上运行,确保你已经配置了正确的安全组和网络设置。

以上步骤提供了一个基本的分布式训练框架,你可以根据自己的需求进行调整和优化。

0
看了该问题的人还看了