ubuntu

Ubuntu下PyTorch分布式训练如何实现

小樊
38
2025-08-28 00:55:27
栏目: 智能运维

在Ubuntu下实现PyTorch的分布式训练,你需要遵循以下步骤:

  1. 环境准备

    • 确保你已经安装了Python和pip。
    • 安装PyTorch。你可以从PyTorch官网获取适合你系统的安装命令。
    • 安装torch.distributed包,它是PyTorch中用于分布式训练的模块。
  2. 编写分布式训练代码

    • 使用torch.nn.parallel.DistributedDataParallel来包装你的模型。
    • 初始化分布式环境,通常通过调用torch.distributed.init_process_group函数来完成。
    • 在每个进程中加载数据并执行训练步骤。
  3. 运行分布式训练

    • 使用torch.distributed.launch工具或者mpirun/mpiexec来启动多个进程。

下面是一个简单的例子,展示了如何在Ubuntu下使用PyTorch进行分布式训练:

首先,安装PyTorch(以CUDA 11.1为例):

pip install torch torchvision torchaudio

然后,编写一个简单的分布式训练脚本distributed_train.py

import torch
import torch.nn as nn
import torch.optim as optim
from torch.nn.parallel import DistributedDataParallel as DDP
import torch.distributed as dist
from torch.utils.data import DataLoader, DistributedSampler
from torchvision import datasets, transforms

# 初始化分布式环境
dist.init_process_group(backend='nccl')

# 设置设备
world_size = torch.cuda.device_count()
rank = dist.get_rank()
torch.cuda.set_device(rank)
device = torch.device(f"cuda:{rank}")

# 创建模型并将其移动到对应的设备上
model = ... # 定义你的模型
model.to(device)
ddp_model = DDP(model, device_ids=[rank])

# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss().to(device)
optimizer = optim.SGD(ddp_model.parameters(), lr=0.01)

# 加载数据集
transform = transforms.Compose([transforms.ToTensor()])
train_dataset = datasets.MNIST(root='./data', train=True, download=True, transform=transform)
train_sampler = DistributedSampler(train_dataset)
train_loader = DataLoader(dataset=train_dataset, batch_size=64, sampler=train_sampler)

# 训练模型
for epoch in range(num_epochs):
    train_sampler.set_epoch(epoch)
    running_loss = 0.0
    for i, data in enumerate(train_loader, 0):
        inputs, labels = data[0].to(device), data[1].to(device)
        optimizer.zero_grad()
        outputs = ddp_model(inputs)
        loss = criterion(outputs, labels)
        loss.backward()
        optimizer.step()
        running_loss += loss.item()
    print(f'Rank {rank}, Epoch {epoch+1}, Loss: {running_loss/len(train_loader)}')

# 清理分布式环境
dist.destroy_process_group()

最后,使用torch.distributed.launch来运行你的脚本:

python -m torch.distributed.launch --nproc_per_node=NUM_GPUS_YOU_HAVE distributed_train.py

这里的NUM_GPUS_YOU_HAVE是你想要使用的GPU数量。如果你有多个节点,你需要在每个节点上都运行上述命令,并且确保它们能够通过网络相互通信。

请注意,这只是一个基本的例子,实际的分布式训练可能会涉及到更复杂的数据加载、模型并行化、梯度聚合等高级功能。此外,确保你的网络配置正确,以便节点之间可以通信,并且防火墙设置允许所需的端口通信。

0
看了该问题的人还看了