• GPU服务器中安装CUDA


    背景:本来以为买了一台GPU服务器,直接运行飞桨的模型就好了,实际上是我想多了,没想到GPU服务器只是带有显存,具体还是要靠驱动来运行模型的。所以就有了以下这些事情。

    直接进入正题

    下载并安装cuda驱动

    1. 根据你购买的GPU服务器类型选择合适的显卡驱动,链接:https://www.nvidia.com/Download/Find.aspx

    2. 下载好后上传至GPU服务器上或者直接右键复制下载链接使用wget命令直接下载到GPU服务器上(注意不要选择最新版本,因为在安装驱动包的同时可能还需要安装其它依赖库,所以选一个相对不是很高的版本即可)
      在这里插入图片描述

    3. 修改xxx.run文件权限,chmod 775 NVIDIA-Linux-x86_64-xxx.run

    4. 运行安装sh NVIDIA-Linux-x86_64-xxx.run,这里会在服务器上出现一个界面,一般都是选择默认的即可

    5. 使用命令查看是否安装成功nvidia-smi
      在这里插入图片描述

    下载并安装cudnn依赖

    1. 上述安装成功后,安装cudnn依赖库,链接:https://developer.nvidia.com/cudnn,下载需要登陆,如果你没有账号,那么需要先注册一个账号,如果网络不好,那么你需要借助梯子。
    2. 下载完成后,上传至服务器并解压,tar -xvJf cudnn-linux-x86_64-8.4.0.27_cuda11.6-archive.tar.xz
    3. 将依赖库复制到系统依赖库目录下即可
    cp cudnn-linux-x86_64-8.4.0.27_cuda11.6-archive/include/cudnn*.h /usr/local/cuda/include 
    cp -P cudnn-linux-x86_64-8.4.0.27_cuda11.6-archive/lib/libcudnn* /usr/local/cuda/lib64 
    chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*
    
    • 1
    • 2
    • 3

    最重要的

    1. 检查我们安装的paddle依赖是否是基于GPU型的。如果不是我们需要执行以下命令
    python -m pip install paddlepaddle-gpu==0.0.0.post111 -f https://www.paddlepaddle.org.cn/whl/linux/gpu/develop.html
    
    • 1

    切记网上一般说install的是paddlepaddle-gpu,但是实际运行模型时总是会检测不到当前服务器的GPU参数,那可能是我们安装的依赖有问题了

    1. 按照好paddle的基础包后,在安装其它的py依赖模块就可以了。
    2. 如果你已经基于GPU来运行计算,那么,使用nvidia-smi查看时,我们可以看到No running processes found会显示出程序运行所对应的利用显存的大小。
  • 相关阅读:
    装修知识总结
    Java项目:JSP民宿预订网站信息管理平台
    java异步
    C语言AES加密解密字符串与16进制数据
    如何在商业网络平台当中,建立良好的销售业绩?
    CF1000F One Occurrence
    python占位符
    WPF自定义控件与样式(4)-CheckBox/RadioButton自定义样式
    Linux中安装Jenkins
    诸葛智能入选「品牌拍档BrandPartner20|50」数字化创新产品和数字化创新案例两大榜单!
  • 原文地址:https://blog.csdn.net/m0_59492087/article/details/127401412