如果只用pytorch, 只需在虚拟环境安装cuda 和 cudnn即可;(只需1-2步即可)
如果使用 tensorflow,一般虚拟环境不支持,2.10一下亲测不行;(需要第3步)
conda create -n tf2x python==3.9
source activate tf2x
conda install cudatoolkit==11.2 # 根据自己的 cuda 版本选择
conda search cudnn -c conda-forge #查找cudnn版本,和cuda版本对应,参考网址:https://tensorflow.google.cn/install/source_windows?hl=en#gpu
conda install cudnn==8.1.0.77 -c conda-forge # 我选择8.1
pip install tensorflow-gpu=2.10.0 # 安装tensorflow
import tensorflow as tf
tf.test.is_gpu_available()
# 或者
tf.config.list_physical_devices('GPU')
显示True或者GPU可用集合,则成功;
如果显示False,参考下面 3;
wget https://developer.download.nvidia.com/compute/cuda/11.5.0/local_installers/cuda_11.5.0_495.29.05_linux.run
sudo sh cuda_11.5.0_495.29.05_linux.run
添加环境变量
sudo vim ~/.bashrc
# 在最后添加以下内容:
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-11.5/lib64
export PATH=$PATH:/usr/local/cuda-11.5/bin
export CUDA_HOME=$CUDA_HOME:/usr/local/cuda-11.5
# 退出后激活
source ~/.bashrc
测试cuda
cd /usr/local/cuda-10.1/samples/1_Utilities/deviceQuery
sudo make
./deviceQuery
PASS 则表示通过
下载library,然后copy到cuda库中即可;
sudo cp cuda/include/cudnn.h /usr/local/cuda-11.5/include
sudo cp cuda/lib64/libcudnn* /usr/local/cuda-11.5/lib64
sudo chmod a+r /usr/local/cuda-11.5/include/cudnn.h
sudo chmod a+r /usr/local/cuda-11.5/lib64/libcudnn*
重新查看torch 或 tensorflow即可!