• 百度飞桨平台使用高级算力的问题


    关注 码龄 粉丝数 原力等级 -- 被采纳 被点赞 采纳率 窈窕山鬼~ 2024-04-06 10:59 采纳率: 50% 浏览 3 首页/ 人工智能 / 百度飞桨平台使用高级算力的问题 paddlepaddle深度学习 使用了V100的算力 但在运行项目时 还是显示使用的CPU 是不是没有独显是不能使用GPU的,但是他提供的不就是GPU吗 收起 写回答 好问题 0 提建议 追加酬金 关注问题 微信扫一扫 点击复制链接 分享 邀请回答 编辑 收藏 删除 结题 收藏 举报 追加酬金 (90%的用户在追加酬金后获得了解决方案) 当前问题酬金 ¥ 0 (可追加 ¥500) ¥ 15¥ 20¥ 50¥ 100¥ 200 支付方式 扫码支付 二维码出错 点击刷新 支付金额 15 元 提供问题酬金的用户不参与问题酬金结算和分配 支付即为同意 《付费问题酬金结算规则》 结题 再想想 删除 再等等

    2条回答 默认 最新

    • Kwan的解忧杂货铺 Java领域优质创作者 2024-04-06 10:59
      关注

      上午好☀️☀️☀️️
      本答案参考ChatGPT-3.5

      在百度飞桨平台使用高级算力的问题中,出现运行项目时仍然使用CPU的情况,可能存在以下原因:

      1. 环境配置不正确,没有正确选择GPU环境;
      2. 系统资源不够,导致不能正常使用GPU;
      3. 代码中没有正确使用GPU,导致不能正常使用;
      4. 数据集过大,GPU显存不够,只能使用CPU运行。

      为了解决这个问题,可以进行以下步骤:

      1. 确认环境配置是否正确,正确选择使用GPU的环境;
      2. 确认系统资源是否充足,如GPU显存是否足够;
      3. 在代码中进行GPU配置,确认是否正确使用GPU;
      4. 如果数据集过大,可以使用数据增强等技术来减少数据量,以降低显存要求。

      修改后的代码:

      import paddle.fluid as fluid
      
      with fluid.dygraph.guard():
          inputs = fluid.dygraph.to_variable(data) # data为数据集
          label = fluid.dygraph.to_variable(labels) # labels为数据标签
          model = Net() # Net是自己定义的模型
          optimizer = fluid.optimizer.AdamOptimizer(learning_rate=0.001, parameter_list=model.parameters())
          with fluid.dygraph.guard(fluid.CUDAPlace(0)): # 选择使用GPU
              output = model(inputs)
              loss = fluid.layers.cross_entropy(output, label)
              avg_loss = fluid.layers.mean(loss)
              avg_loss.backward()
              optimizer.minimize(avg_loss)
          print(avg_loss.numpy()) # 输出训练的损失值
      
      评论 编辑记录
      窈窕山鬼~ 2024-04-06 11:01

      import warnings
      from d2l import paddle as d2l

      warnings.filterwarnings("ignore")

      import paddle
      import paddle.nn as nn

      net = nn.Sequential(
      # 这里,我们使用一个11*11的更大窗口来捕捉对象。
      # 同时,步幅为4,以减少输出的高度和宽度。
      # 另外,输出通道的数目远大于LeNet
      nn.Conv2D(1, 96, kernel_size=11, stride=4, padding=1), nn.ReLU(),
      nn.MaxPool2D(kernel_size=3, stride=2),
      # 减小卷积窗口,使用填充为2来使得输入与输出的高和宽一致,且增大输出通道数
      nn.Conv2D(96, 256, kernel_size=5, padding=2), nn.ReLU(),
      nn.MaxPool2D(kernel_size=3, stride=2),
      # 使用三个连续的卷积层和较小的卷积窗口。
      # 除了最后的卷积层,输出通道的数量进一步增加。
      # 在前两个卷积层之后,池化层不用于减少输入的高度和宽度
      nn.Conv2D(256, 384, kernel_size=3, padding=1), nn.ReLU(),
      nn.Conv2D(384, 384, kernel_size=3, padding=1), nn.ReLU(),
      nn.Conv2D(384, 256, kernel_size=3, padding=1), nn.ReLU(),
      nn.MaxPool2D(kernel_size=3, stride=2), nn.Flatten(),
      # 这里,全连接层的输出数量是LeNet中的好几倍。使用dropout层来减轻过度拟合
      nn.Linear(6400, 4096), nn.ReLU(), nn.Dropout(p=0.5),
      nn.Linear(4096, 4096), nn.ReLU(), nn.Dropout(p=0.5),
      # 最后是输出层。由于这里使用Fashion-MNIST,所以用类别数为10,而非论文中的1000
      nn.Linear(4096, 10)
      )

      X = paddle.randn(shape=(1, 1, 224, 224))
      for layer in net:
      X=layer(X)
      print(layer.class.name,'output shape:\t',X.shape)

      batch_size = 128
      train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size, resize=224)

      lr, num_epochs = 0.01, 10
      d2l.train_ch6(net, train_iter, test_iter, num_epochs, lr, d2l.try_gpu())
      这是代码

      回复
    • GISer Liu 2024-04-06 17:59
      关注

      该回答引用自GPT-3.5,由博主GISer Liu编写:

      根据你的描述,使用了V100的算力但在运行项目时却显示使用的是CPU,可能出现以下几种情况:

      1. 未正确配置环境 :需要确保已经正确安装了NVIDIA驱动和CUDA,以及与之匹配的cuDNN。此外,还需要安装适用于GPU的版本的TensorFlow或其他深度学习框架,并将代码设置为使用GPU运行。
      2. 未指定使用GPU :在使用深度学习框架时,需要明确指定使用GPU进行计算。在TensorFlow中,可以通过以下方式实现:
        pythonCopy code
        import tensorflow as tf
        gpus = tf.config.experimental.list_physical_devices('GPU')
        if gpus:
        try:
        for gpu in gpus:
        tf.config.experimental.set_memory_growth(gpu, True)
        logical_gpus = tf.config.experimental.list_logical_devices('GPU')
        print(len(gpus), "Physical GPUs,", len(logical_gpus), "Logical GPUs")
        except RuntimeError as e:
        print(e)
        
        这段代码会显示系统中的物理GPU和逻辑GPU数量,并设置GPU的内存增长。
      3. 资源竞争 :可能是由于系统资源竞争导致的。在运行项目时,确保没有其他占用GPU资源的程序在运行。
      4. 其他问题 :如果以上方法都无法解决问题,可能涉及更深层次的配置或环境问题,可能需要进一步检查系统配置和日志以查找根本原因。
        综上所述,建议你检查以上问题,并根据情况逐一排查,以确保项目能够正确使用GPU进行加速。

      如果该回答解决了您的问题,请采纳!如果没有,请私信联系或评论您的疑惑

      评论
    编辑
    预览

    报告相同问题?

  • 相关阅读:
    react实现转盘抽奖功能
    一本通1047;判断能否被3,5,7整除
    直播回顾 | 论道原生:云原生大数据建设实践
    VMWare ESXi接口
    ELA--学习笔记
    LEO天线,全球市场总体规模,头部前八大厂商排名及市场份额
    angle_ll
    网络连接错误错误代码103怎么解决
    Java线程学习入门(三)
    01【C语言 & 趣味算法】百钱百鸡问题(问题简单,非初学者请忽略叭)。请注意算法的设计(程序的框架),程序流程图的绘制,算法的优化。
  • 原文地址:https://ask.csdn.net/questions/8084004