🥇 版权: 本文由【墨理学AI】原创首发、各位读者大大、敬请查阅、感谢三连
🎉 声明: 作为全网 AI 领域 干货最多的博主之一,❤️ 不负光阴不负卿 ❤️

使用 pip 命令进行安装即可,下载安装速度慢、则考虑指定源
pip install openvino-dev
pip install openvino
# 模型转换会用到
pip install onnx
pip install onnxruntime
openvino API 2.0 和之前 版本差异较大,本博文属于官方文档的Python版本代码摘录,方便部分官网网络不可达的同学查阅,有个基本了解
Inference Engine API:
import numpy as np
import openvino.inference_engine as ie
core = ie.IECore()
OpenVINO™ Runtime API 2.0:
import openvino.runtime as ov
core = ov.Core()
Inference Engine API:
core.add_extension("path_to_extension_library.so", "CPU")
OpenVINO™ Runtime API 2.0:
core.add_extension("path_to_extension_library.so")
Inference Engine API:
network = core.read_network("model.xml")
OpenVINO™ Runtime API 2.0:
model = core.read_model("model.xml")
Inference Engine API:
# Load network to the device and create infer requests
exec_network = core.load_network(network, "CPU", num_requests=4)
OpenVINO™ Runtime API 2.0:
compiled_model = core.compile_model(model, "CPU")
Inference Engine API:
# Done in the previous step
OpenVINO™ Runtime API 2.0:
infer_request = compiled_model.create_infer_request()



计算机视觉领域 八大专栏、不少干货、有兴趣可了解一下
🍊 深度学习:环境搭建,一文读懂
🍊 深度学习:趣学深度学习
🍊 落地部署应用:模型部署之转换-加速-封装
🍊 CV 和 语音数据集:数据集整理
🍊 点赞 👍 收藏 ⭐留言 📝 都是博主坚持写作、更新高质量博文的最大动力!
