以下是CentOS上优化PyTorch内存占用的方法:
torch.cuda.empty_cache()
手动释放GPU缓存。del
删除不再需要的变量,配合gc.collect()
触发垃圾回收。DataLoader
的batch_size
参数。torch.cuda.amp
自动在FP16和FP32间切换,减少内存占用。pin_memory=True
,并合理设置num_workers
。torch.utils.checkpoint
减少中间激活值存储。注意:需根据具体模型和任务调整参数,平衡内存占用与训练效率。