在Ubuntu上进行PyTorch的分布式训练,你需要遵循以下步骤:
安装PyTorch: 确保你已经安装了PyTorch。你可以从PyTorch官网(https://pytorch.org/)获取适合你系统的安装命令。
设置环境变量: 为了使用多GPU训练,你需要设置一些环境变量。例如,如果你有4个GPU,你可以这样设置:
export CUDA_VISIBLE_DEVICES=0,1,2,3
编写分布式训练脚本:
PyTorch提供了torch.nn.parallel.DistributedDataParallel
类来实现分布式训练。你需要修改你的训练脚本来使用这个类。
以下是一个简单的例子,展示了如何使用DistributedDataParallel
:
import torch
import torch.nn as nn
import torch.optim as optim
from torch.nn.parallel import DistributedDataParallel as DDP
from torch.utils.data import DataLoader
from torchvision import datasets, transforms
# 初始化进程组
torch.distributed.init_process_group(backend='nccl')
# 创建模型并移动到GPU
model = nn.Sequential(
nn.Linear(784, 1024),
nn.ReLU(),
nn.Linear(1024, 10)
).to(torch.device("cuda"))
# 使用DistributedDataParallel包装模型
model = DDP(model)
# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.01)
# 加载数据集
transform = transforms.Compose([transforms.ToTensor()])
train_dataset = datasets.MNIST(root='./data', train=True, download=True, transform=transform)
train_sampler = torch.utils.data.distributed.DistributedSampler(train_dataset)
train_loader = DataLoader(dataset=train_dataset, batch_size=64, sampler=train_sampler)
# 训练模型
for epoch in range(10):
train_sampler.set_epoch(epoch)
running_loss = 0.0
for i, data in enumerate(train_loader, 0):
inputs, labels = data[0].to(torch.device("cuda")), data[1].to(torch.device("cuda"))
optimizer.zero_grad()
outputs = model(inputs.view(-1, 784))
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
running_loss += loss.item()
print(f'Epoch {epoch + 1}, Loss: {running_loss / len(train_loader)}')
# 清理进程组
torch.distributed.destroy_process_group()
运行分布式训练脚本:
使用torch.distributed.launch
或accelerate
库来启动分布式训练。例如,如果你有4个GPU,你可以这样运行脚本:
python -m torch.distributed.launch --nproc_per_node=4 your_training_script.py
或者,如果你安装了accelerate
库,你可以这样运行:
accelerate launch your_training_script.py
注意事项:
以上步骤提供了一个基本的分布式训练框架,你可以根据自己的需求进行调整和优化。