在安装前,需确认CentOS系统版本(推荐CentOS 7及以上)、Python版本(3.7及以上)满足PyTorch官方要求。可通过以下命令检查:
cat /etc/centos-release # 查看CentOS版本
python3 --version # 查看Python版本
若版本不兼容,需升级系统或Python(如CentOS 7需升级至Python 3.7+,可通过sudo yum install -y epel-release和sudo yum install -y python3.8安装)。
PyTorch安装需要gcc、cmake、python3-devel等基础依赖,用于编译C/C++扩展。执行以下命令安装:
sudo yum update -y # 更新系统包
sudo yum groupinstall -y "Development Tools" # 安装开发工具组(含gcc、make)
sudo yum install -y cmake3 git wget python3 python3-devel numpy # 安装核心依赖
其中,cmake3需链接到cmake(sudo ln -s /usr/bin/cmake3 /usr/bin/cmake),确保后续构建工具可用。
wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh
bash Miniconda3-latest-Linux-x86_64.sh # 按提示安装
conda create -n torch_env python=3.8 # 创建名为torch_env的虚拟环境
conda activate torch_env # 激活环境
# 根据CUDA版本选择命令(如CUDA 11.8)
conda install pytorch torchvision torchaudio cudatoolkit=11.8 -c pytorch
cu118对应CUDA 11.8),从PyTorch官方仓库下载预编译轮子:pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu118
若无需GPU,直接使用CPU版本:pip install torch torchvision torchaudio
若需GPU加速,需提前安装匹配的CUDA Toolkit和cuDNN库:
.rpm包(如CUDA 11.4),通过yum本地安装:wget https://developer.download.nvidia.com/compute/cuda/repos/rhel7/x86_64/cuda-repo-rhel7-11.4.2-1.x86_64.rpm
sudo yum localinstall cuda-repo-rhel7-11.4.2-1.x86_64.rpm
sudo yum clean all
sudo yum install -y cuda
安装后,将CUDA路径加入环境变量(编辑~/.bashrc):echo 'export PATH=/usr/local/cuda/bin:$PATH' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
source ~/.bashrc
tar -xzvf cudnn-11.4-linux-x64-v8.2.2.26.tgz
sudo cp cuda/include/cudnn*.h /usr/local/cuda/include
sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64
sudo chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*
安装后,通过nvcc --version验证CUDA是否可用,通过torch.cuda.is_available()验证PyTorch是否能识别GPU。pip和setuptools,或使用--no-cache-dir避免缓存问题:pip install --upgrade pip setuptools
pip install --no-cache-dir torch torchvision torchaudio
pip install torch torchvision torchaudio -i https://pypi.tuna.tsinghua.edu.cn/simple
torch.cuda.is_available()返回False,需检查CUDA版本是否与PyTorch版本兼容(参考PyTorch官网兼容列表),或重新安装匹配的CUDA Toolkit和cuDNN。安装完成后,通过以下Python代码验证PyTorch是否安装成功及GPU是否可用:
import torch
print("PyTorch版本:", torch.__version__) # 查看PyTorch版本
print("CUDA是否可用:", torch.cuda.is_available()) # 查看GPU是否可用(True表示可用)
print("GPU设备名称:", torch.cuda.get_device_name(0)) if torch.cuda.is_available() else "无GPU"
若输出显示版本号且CUDA可用为True,则说明安装成功。