• 深度学习部署


    ONNX

     什么是ONNX?

    现如今,各大主流深度学习框架都有着自己独有的特点与魅力,吸引着广大科研与开发人员,例如:

    • Caffe2:方便机器学习算法和模型大规模部署在移动设备
    • PyTorch:PyTorch是一个快速便于实验深度学习框架。但是由于其高度封装,导致部分function不够灵活
    • TensorFlow:TensorFlow 是一个开放源代码软件库,是很多主流框架的基础或者依赖。几乎能满足所有机器学习开发的功能,但是也有由于其功能代码过于底层,学习成本高,代码冗繁,编程逻辑与常规不同等缺点。

    此外还有:Cognitive Toolkit (CNTK)Apache MXNetChainerApple CoreMLSciKit-LearnML.NET

    深度学习算法大多通过计算数据流图来完成神经网络的深度学习过程。 一些框架(例如CNTK,Caffe2,Theano和TensorFlow)使用静态图形,而其他框架(例如PyTorch和Chainer)使用动态图形。 但是这些框架都提供了接口,使开发人员可以轻松构建计算图和运行时,以优化的方式处理图。 这些图用作中间表示(IR),捕获开发人员源代码的特定意图,有助于优化和转换在特定设备(CPU,GPU,FPGA等)上运行 

    此时,ONNX便应运而生,Caffe2,PyTorch,Microsoft Cognitive Toolkit,Apache MXNet等主流框架都对ONNX有着不同程度的支持。这就便于了我们的算法及模型在不同的框架之间的迁移。 

    典型的几个线路:

    • Pytorch -> ONNX -> TensorRT
    • Pytorch -> ONNX -> TVM
    • TF – ONNX – ncnn

     ONNX是一套表示深度神经网络模型的开放格式,可以支持传统非神经网络机器学习模型。

    ONNX规范由以下几个部分组成:

    • 一个可扩展的计算图模型:定义了通用的计算图中间表示法(Intermediate Representation)。
    • 内置操作符集ai.onnxai.onnx.mlai.onnx是默认的操作符集,主要针对神经网络模型,ai.onnx.ml主要适用于传统非神经网络机器学习模型。
    • 标准数据类型。包括张量(tensors)、序列(sequences)和映射(maps)

     ONNX神经网络变体只使用张量作为输入和输出;而作为支持传统机器学习模型的ONNX-ML,还可以识别序列和映射,ONNX-ML为支持非神经网络算法扩展了ONNX操作符集。

     言简意赅:利用PyTorch训练好了一个模型,将其保存为pt文件,读取这个文件相当于预加载了权重信息。我们可以将pt文件转换为onnx文件,这其中不仅包含了权重值,也包含了神经网络的网络流动信息以及每一层网络的输入输出信息和一些其他的辅助信息。

    例子:

    1. from sklearn.datasets import load_iris
    2. from sklearn.model_selection import train_test_split
    3. from sklearn.linear_model import LogisticRegression
    4. iris = load_iris()
    5. X, y = iris.data, iris.target
    6. X_train, X_test, y_train, y_test = train_test_split(X, y)
    7. clr = LogisticRegression()
    8. clr.fit(X_train, y_train)

    将模型序列化为ONNX格式

    1. from skl2onnx import convert_sklearn
    2. from skl2onnx.common.data_types import FloatTensorType
    3. initial_type = [('float_input', FloatTensorType([1, 4]))]
    4. onx = convert_sklearn(clr, initial_types=initial_type)
    5. with open("logreg_iris.onnx", "wb") as f:
    6. f.write(onx.SerializeToString())

    查看验证模型

    1. import onnx
    2. model = onnx.load('logreg_iris.onnx')
    3. print(model)

    输出信息:

    1. ir_version: 5
    2. producer_name: "skl2onnx"
    3. producer_version: "1.5.1"
    4. domain: "ai.onnx"
    5. model_version: 0
    6. doc_string: ""
    7. graph {
    8. node {
    9. input: "float_input"
    10. output: "label"
    11. output: "probability_tensor"
    12. name: "LinearClassifier"
    13. op_type: "LinearClassifier"
    14. attribute {
    15. name: "classlabels_ints"
    16. ints: 0
    17. ints: 1
    18. ints: 2
    19. type: INTS
    20. }
    21. attribute {
    22. name: "coefficients"
    23. floats: 0.375753253698349
    24. floats: 1.3907358646392822
    25. floats: -2.127762794494629
    26. floats: -0.9207873344421387
    27. floats: 0.47902926802635193
    28. floats: -1.5524250268936157
    29. floats: 0.46959221363067627
    30. floats: -1.2708674669265747
    31. floats: -1.5656673908233643
    32. floats: -1.256540060043335
    33. floats: 2.18996000289917
    34. floats: 2.2694246768951416
    35. type: FLOATS
    36. }
    37. attribute {
    38. name: "intercepts"
    39. floats: 0.24828049540519714
    40. floats: 0.8415762782096863
    41. floats: -1.0461325645446777
    42. type: FLOATS
    43. }
    44. attribute {
    45. name: "multi_class"
    46. i: 1
    47. type: INT
    48. }
    49. attribute {
    50. name: "post_transform"
    51. s: "LOGISTIC"
    52. type: STRING
    53. }
    54. domain: "ai.onnx.ml"
    55. }
    56. node {
    57. input: "probability_tensor"
    58. output: "probabilities"
    59. name: "Normalizer"
    60. op_type: "Normalizer"
    61. attribute {
    62. name: "norm"
    63. s: "L1"
    64. type: STRING
    65. }
    66. domain: "ai.onnx.ml"
    67. }
    68. node {
    69. input: "label"
    70. output: "output_label"
    71. name: "Cast"
    72. op_type: "Cast"
    73. attribute {
    74. name: "to"
    75. i: 7
    76. type: INT
    77. }
    78. domain: ""
    79. }
    80. node {
    81. input: "probabilities"
    82. output: "output_probability"
    83. name: "ZipMap"
    84. op_type: "ZipMap"
    85. attribute {
    86. name: "classlabels_int64s"
    87. ints: 0
    88. ints: 1
    89. ints: 2
    90. type: INTS
    91. }
    92. domain: "ai.onnx.ml"
    93. }
    94. name: "deedadd605a34d41ac95746c4feeec1f"
    95. input {
    96. name: "float_input"
    97. type {
    98. tensor_type {
    99. elem_type: 1
    100. shape {
    101. dim {
    102. dim_value: 1
    103. }
    104. dim {
    105. dim_value: 4
    106. }
    107. }
    108. }
    109. }
    110. }
    111. output {
    112. name: "output_label"
    113. type {
    114. tensor_type {
    115. elem_type: 7
    116. shape {
    117. dim {
    118. dim_value: 1
    119. }
    120. }
    121. }
    122. }
    123. }
    124. output {
    125. name: "output_probability"
    126. type {
    127. sequence_type {
    128. elem_type {
    129. map_type {
    130. key_type: 7
    131. value_type {
    132. tensor_type {
    133. elem_type: 1
    134. }
    135. }
    136. }
    137. }
    138. }
    139. }
    140. }
    141. }
    142. opset_import {
    143. domain: ""
    144. version: 9
    145. }
    146. opset_import {
    147. domain: "ai.onnx.ml"
    148. version: 1
    149. }

    使用netron,可以图像化显示ONNX模型的计算拓扑图;

     导入模型后,需要使用ONNX Runtime来预测:

    1. import onnxruntime as rt
    2. import numpy
    3. sess = rt.InferenceSession("logreg_iris.onnx")
    4. input_name = sess.get_inputs()[0].name
    5. label_name = sess.get_outputs()[0].name
    6. probability_name = sess.get_outputs()[1].name
    7. pred_onx = sess.run([label_name, probability_name], {input_name: X_test[0].astype(numpy.float32)})
    8. # print info
    9. print('input_name: ' + input_name)
    10. print('label_name: ' + label_name)
    11. print('probability_name: ' + probability_name)
    12. print(X_test[0])
    13. print(pred_onx)

    打印的模型信息和预测值:

    1. input_name: float_input
    2. label_name: output_label
    3. probability_name: output_probability
    4. [5.5 2.6 4.4 1.2]
    5. [array([1], dtype=int64), [{0: 0.012208569794893265, 1: 0.5704444646835327, 2: 0.4173469841480255}]]

    完整程序:onnx.ipynb

    ONNX结构分析

    对于ONNX的了解,很多人可能仅仅停留在它是一个开源的深度学习模型标准,能够用于模型转换及部署但是对于其内部是如何定义这个标准,如何实现和组织的,却并不十分了解,所以在转换模型到ONNX的过程中,对于出现的不兼容不支持的问题有些茫然。

    ONNX结构的定义基本都在这一个onnx.proto文件里面了,如何你对protobuf不太熟悉的话,可以先简单了解一下再回来看这个文件。当然我们也不必把这个文件每一行都看明白,只需要了解其大概组成即可,有一些部分几乎不会使用到可以忽略。

    这里我把需要重点了解的对象列出来

    • ModelProto
    • GraphProto
    • NodeProto
    • AttributeProto
    • ValueInfoProto
    • TensorProto

    我用尽可能简短的语言描述清楚上述几个Proto之间的关系:当我们将ONNX模型load进来之后,得到的是一个ModelProto,它包含了一些版本信息,生产者信息和一个非常重要的GraphProto;在GraphProto中包含了四个关键的repeated数组,分别是node(NodeProto类型),input(ValueInfoProto类型),output(ValueInfoProto类型)和initializer(TensorProto类型),其中node中存放着模型中的所有计算节点,input中存放着模型所有的输入节点,output存放着模型所有的输出节点,initializer存放着模型所有的权重;那么节点与节点之间的拓扑是如何定义的呢?非常简单,每个计算节点都同样会有inputoutput这样的两个数组(不过都是普通的string类型),通过inputoutput的指向关系,我们就能够利用上述信息快速构建出一个深度学习模型的拓扑图。最后每个计算节点当中还包含了一个AttributeProto数组,用于描述该节点的属性,例如Conv层的属性包含grouppadsstrides等等,具体每个计算节点的属性、输入和输出可以参考这个Operators.md文档。

    需要注意的是,刚才我们所说的GraphProto中的input输入数组不仅仅包含我们一般理解中的图片输入的那个节点,还包含了模型当中所有权重。举个例子,Conv层中的W权重实体是保存在initializer当中的,那么相应的会有一个同名的输入在input当中,其背后的逻辑应该是把权重也看作是模型的输入,并通过initializer中的权重实体来对这个输入做初始化(也就是把值填充进来)

    PyTorch模型转ONNX 

     在PyTorch推出jit之后,很多情况下我们直接用torch scirpt来做inference会更加方便快捷,并不需要转换成ONNX格式了,当然如果你追求的是极致的效率,想使用TensorRT的话,那么还是建议先转换成ONNX的。

    1. import torch
    2. import torchvision
    3. dummy_input = torch.randn(10, 3, 224, 224, device='cuda')
    4. model = torchvision.models.alexnet(pretrained=True).cuda()
    5. # Providing input and output names sets the display names for values
    6. # within the model's graph. Setting these does not change the semantics
    7. # of the graph; it is only for readability.
    8. #
    9. # The inputs to the network consist of the flat list of inputs (i.e.
    10. # the values you would pass to the forward() method) followed by the
    11. # flat list of parameters. You can partially specify names, i.e. provide
    12. # a list here shorter than the number of inputs to the model, and we will
    13. # only set that subset of names, starting from the beginning.
    14. input_names = [ "actual_input_1" ] + [ "learned_%d" % i for i in range(16) ]
    15. output_names = [ "output1" ]
    16. torch.onnx.export(model, dummy_input, "alexnet.onnx", verbose=True, input_names=input_names, output_names=output_names)

    目标平台是CUDA或者X86的话,又怕环境配置麻烦采坑,比较推荐使用的是微软的;onnxruntime如果想直接使用ONNX模型来做部署的话,可以考虑转换成TensorRT(目标平台是CUDA又追求极致的效率);如果目标平台是ARM或者其他IoT设备,那么就要考虑使用端侧推理框架了,例如NCNN、MNN和MACE等等

    转为TensorRT:

    需要先搭建好TensorRT的环境,然后可以直接使用TensorRT对ONNX模型进行推理;然后更为推荐的做法是将ONNX模型转换为TensorRT的engine文件,这样可以获得最优的性能

    第三种情况的话一般问题也不大,由于是在端上执行,计算力有限,所以确保你的模型是经过精简和剪枝过的能够适配移动端的。几个端侧推理框架的性能到底如何并没有定论,由于大家都是手写汇编优化,以卷积为例,有的框架针对不同尺寸的卷积都各写了一种汇编实现,因此不同的模型、不同的端侧推理框架,不同的ARM芯片都有可能导致推理的性能有好有坏,这都是正常情况。

    TensorRT 

  • 相关阅读:
    Android手机为何不再卡顿?性能优化才是安卓起飞关键
    数学知识复习:第二型曲线积分
    VeRA: Vector-based Random Matrix Adaptation
    linux中构建一个launch文件
    qgis c++二次开发初始化介绍
    【Linux】进程间通信
    经典算法系列之(四):七大查找——插值查找
    【笔记】centos7 python2.7.5安装paramiko
    计算机毕设(附源码)JAVA-SSM家乡旅游宣传书册
    MySQL实战优化高手08 生产经验:在数据库的压测过程中,如何360度无死角观察机器性能?
  • 原文地址:https://blog.csdn.net/qq_60609496/article/details/127695751