• Pytorch GPU模型推理时间探讨


    前言

      最近对pytorch的模型推理(inference)时间产生了兴趣,于是想着写一个小程序来观察一下现象。遂以此文记之。

    实验配置

      主要思路:

    1. 创建多个不同规格的模型,每个模型只有一个简单的卷积层。
    2. 以卷积的各种不同参数作为模型的区别。
    3. 以随机数来生成一批数据,用***[B,C,W,H]***来表示。
    4. 每个模型进行100次推理,分10批次完成,记录这10批次的时间和平均时间。

    硬件配置

      影响一个模型的推理速度的硬件应该主要就是这些了,还有一个带宽问题。

    显卡:RTX 2080ti
    内存:16G 2666MHz
    CPU:Intel i5-9400F
    系统:win10
    主板:忘了

    实验结果

      具体的网络规格这里就略去了,都是随便举的例子,没啥信息量。直接看结果吧。
    在这里插入图片描述

      如上图所示,其中的序号表示模型序号,可以得到几个现象:

    1.每个模型的每轮10次推理中,第一轮总是相对来说很慢的
    2.这些模型的平均推理时间相差不大,也就是还没达到显卡的算力门槛。
    3.平均推理时间相差不大的情况下,to_GPU_cost的区别较大。

    解释与猜想

    理论上每次推理时间应该是一样的,但就表格数据来看,1-9次的区别有些也很大。
    这一现象可能是由于计时方法产生的,所用计时方法是time库的perf_counter方法,该方法是由CPU来执行的,而显卡计算后通知CPU,这之间还有通信差距。
    每次的第一轮推理都很慢可能是因为GPU第一次做推理需要进行模型参数的初始化。

      中间还有一个小插曲,一开始我是在一个py程序里多次调用testModel这个方法,不同的模型作为参数传递进去,但是发现只有第一次调用时(也就是第一个模型的第一轮10次推理)才会用那么多时间,于是我改了一下代码,将模型参数作为main的参数,重写了一个bat(windows的批处理文件)来依次执行多个模型。

    暂时先记录到这里,目前已经有了初步的认识,等后续再进一步研究研究

  • 相关阅读:
    后台运行python程序并查看运行的python 进程
    第十章·桥接模式
    MISRA 2012学习笔记(5)-Rules 8.10
    进程:execve加载流程
    栈:C++实现
    分解因数,求有多少种情况
    Codeforces暑期训练周报(8.15~8.21)
    wordpress redirected you too many times.(多重重定向)
    JS 循环JSON将数据遍历到Table里面
    数学建模——差分方程结论介绍
  • 原文地址:https://blog.csdn.net/weixin_44801799/article/details/126185351