• GPU服务器中安装CUDA


    背景:本来以为买了一台GPU服务器,直接运行飞桨的模型就好了,实际上是我想多了,没想到GPU服务器只是带有显存,具体还是要靠驱动来运行模型的。所以就有了以下这些事情。

    直接进入正题

    下载并安装cuda驱动

    1. 根据你购买的GPU服务器类型选择合适的显卡驱动,链接:https://www.nvidia.com/Download/Find.aspx

    2. 下载好后上传至GPU服务器上或者直接右键复制下载链接使用wget命令直接下载到GPU服务器上(注意不要选择最新版本,因为在安装驱动包的同时可能还需要安装其它依赖库,所以选一个相对不是很高的版本即可)
      在这里插入图片描述

    3. 修改xxx.run文件权限,chmod 775 NVIDIA-Linux-x86_64-xxx.run

    4. 运行安装sh NVIDIA-Linux-x86_64-xxx.run,这里会在服务器上出现一个界面,一般都是选择默认的即可

    5. 使用命令查看是否安装成功nvidia-smi
      在这里插入图片描述

    下载并安装cudnn依赖

    1. 上述安装成功后,安装cudnn依赖库,链接:https://developer.nvidia.com/cudnn,下载需要登陆,如果你没有账号,那么需要先注册一个账号,如果网络不好,那么你需要借助梯子。
    2. 下载完成后,上传至服务器并解压,tar -xvJf cudnn-linux-x86_64-8.4.0.27_cuda11.6-archive.tar.xz
    3. 将依赖库复制到系统依赖库目录下即可
    cp cudnn-linux-x86_64-8.4.0.27_cuda11.6-archive/include/cudnn*.h /usr/local/cuda/include 
    cp -P cudnn-linux-x86_64-8.4.0.27_cuda11.6-archive/lib/libcudnn* /usr/local/cuda/lib64 
    chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*
    
    • 1
    • 2
    • 3

    最重要的

    1. 检查我们安装的paddle依赖是否是基于GPU型的。如果不是我们需要执行以下命令
    python -m pip install paddlepaddle-gpu==0.0.0.post111 -f https://www.paddlepaddle.org.cn/whl/linux/gpu/develop.html
    
    • 1

    切记网上一般说install的是paddlepaddle-gpu,但是实际运行模型时总是会检测不到当前服务器的GPU参数,那可能是我们安装的依赖有问题了

    1. 按照好paddle的基础包后,在安装其它的py依赖模块就可以了。
    2. 如果你已经基于GPU来运行计算,那么,使用nvidia-smi查看时,我们可以看到No running processes found会显示出程序运行所对应的利用显存的大小。
  • 相关阅读:
    Fundebug JavaScript插件支持监控HTTP请求数据
    Hadoop学习全程记录——hive入门
    计算机网络第3章-运输层(2)
    博实转债上市价格预测
    条码二维码读取设备在医疗设备自助服务的重要性
    Hive【Hive(三)查询语句】
    浅谈顺序表基本操作
    Docker 可视化面板 ——Portainer
    vue动态修改css样式
    GNN数据集基准-OGB简介
  • 原文地址:https://blog.csdn.net/m0_59492087/article/details/127401412