Linux与PyTorch的集成主要通过环境准备、依赖安装、PyTorch部署及验证等步骤实现,以下是详细流程:
sudo apt update && sudo apt upgrade -y  # Debian/Ubuntu
sudo yum update -y                      # CentOS/RHEL
sudo apt install python3 python3-pip    # Debian/Ubuntu
sudo yum install python3 python3-pip    # CentOS/RHEL
验证安装:python3 --version(显示Python版本)、pip3 --version(显示pip版本)。为隔离项目依赖,避免包冲突,建议使用虚拟环境:
python3 -m venv pytorch_env             # 创建名为pytorch_env的虚拟环境
source pytorch_env/bin/activate         # 激活环境(激活后终端提示符会显示环境名)
conda create -n pytorch_env python=3.8  # 创建指定Python版本的环境
conda activate pytorch_env              # 激活环境
激活后,后续安装的包会存放在虚拟环境中,不影响系统全局配置。根据是否需要GPU加速,选择对应的安装方式:
pip3 install torch torchvision torchaudio
conda install pytorch torchvision torchaudio cpuonly -c pytorch
pip3 install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu118
(将cu118替换为实际CUDA版本,如cu117对应CUDA 11.7)conda install pytorch torchvision torchaudio cudatoolkit=11.8 -c pytorch -c nvidia
(将11.8替换为实际CUDA版本)安装完成后,通过Python代码验证PyTorch是否正常工作及GPU是否可用:
import torch
print("PyTorch版本:", torch.__version__)                  # 输出PyTorch版本号
print("CUDA可用性:", torch.cuda.is_available())           # 若为True,说明GPU可用
print("GPU设备数量:", torch.cuda.device_count())          # 输出GPU设备数量
print("当前GPU名称:", torch.cuda.get_device_name(0))      # 输出第一个GPU的名称(如NVIDIA GeForce RTX 3090)
若输出显示版本号且torch.cuda.is_available()为True,则说明PyTorch集成成功。
pip3 install torch torchvision torchaudio -i https://pypi.tuna.tsinghua.edu.cn/simple
--user参数安装到用户目录,或使用虚拟环境(推荐)。若使用PyCharm、VSCode等IDE,需配置其使用虚拟环境的解释器:
File→Settings→Project: xxx→Python Interpreter→点击+→选择Existing environment→浏览至虚拟环境的解释器路径(如pytorch_env/bin/python)。Ctrl+Shift+P→输入Python: Select Interpreter→选择虚拟环境的解释器路径。通过以上步骤,即可在Linux系统上完成PyTorch的集成,并根据需求选择CPU或GPU版本进行深度学习任务开发。