在Ubuntu下实现PyTorch的分布式训练,你需要遵循以下步骤:
环境准备:
torch.distributed
包,它是PyTorch中用于分布式训练的模块。编写分布式训练代码:
torch.nn.parallel.DistributedDataParallel
来包装你的模型。torch.distributed.init_process_group
函数来完成。运行分布式训练:
torch.distributed.launch
工具或者mpirun
/mpiexec
来启动多个进程。下面是一个简单的例子,展示了如何在Ubuntu下使用PyTorch进行分布式训练:
首先,安装PyTorch(以CUDA 11.1为例):
pip install torch torchvision torchaudio
然后,编写一个简单的分布式训练脚本distributed_train.py
:
import torch
import torch.nn as nn
import torch.optim as optim
from torch.nn.parallel import DistributedDataParallel as DDP
import torch.distributed as dist
from torch.utils.data import DataLoader, DistributedSampler
from torchvision import datasets, transforms
# 初始化分布式环境
dist.init_process_group(backend='nccl')
# 设置设备
world_size = torch.cuda.device_count()
rank = dist.get_rank()
torch.cuda.set_device(rank)
device = torch.device(f"cuda:{rank}")
# 创建模型并将其移动到对应的设备上
model = ... # 定义你的模型
model.to(device)
ddp_model = DDP(model, device_ids=[rank])
# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss().to(device)
optimizer = optim.SGD(ddp_model.parameters(), lr=0.01)
# 加载数据集
transform = transforms.Compose([transforms.ToTensor()])
train_dataset = datasets.MNIST(root='./data', train=True, download=True, transform=transform)
train_sampler = DistributedSampler(train_dataset)
train_loader = DataLoader(dataset=train_dataset, batch_size=64, sampler=train_sampler)
# 训练模型
for epoch in range(num_epochs):
train_sampler.set_epoch(epoch)
running_loss = 0.0
for i, data in enumerate(train_loader, 0):
inputs, labels = data[0].to(device), data[1].to(device)
optimizer.zero_grad()
outputs = ddp_model(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
running_loss += loss.item()
print(f'Rank {rank}, Epoch {epoch+1}, Loss: {running_loss/len(train_loader)}')
# 清理分布式环境
dist.destroy_process_group()
最后,使用torch.distributed.launch
来运行你的脚本:
python -m torch.distributed.launch --nproc_per_node=NUM_GPUS_YOU_HAVE distributed_train.py
这里的NUM_GPUS_YOU_HAVE
是你想要使用的GPU数量。如果你有多个节点,你需要在每个节点上都运行上述命令,并且确保它们能够通过网络相互通信。
请注意,这只是一个基本的例子,实际的分布式训练可能会涉及到更复杂的数据加载、模型并行化、梯度聚合等高级功能。此外,确保你的网络配置正确,以便节点之间可以通信,并且防火墙设置允许所需的端口通信。