onnx 模型转成 华为的 om 模型之后,使用哪个 python 包推理?

最近在搞国产 GPU 的适配

用的 GPU 是 ascend310

遇到一个问题,网上说的都是什么离线模型使用

但是,我想知道的是这个 om 可以用 python 调用推理吗?

比如 onnx 模型可以用 onnxruntime 包调用推理

但是华为的 om 模型怎么用 python 调用?

阅读 4.2k
2 个回答

先安装MindSpore:

import numpy as np
import mindspore
from mindspore import context, Tensor
from mindspore.train.serialization import load

context.set_context(mode=context.GRAPH_MODE, device_target="Ascend")

model = load("path/to/your/model.om")

input_data = np.array([[1.0, 2.0], [3.0, 4.0]], dtype=np.float32)
input_tensor = Tensor(input_data)

output_tensor = model(input_tensor)

output_data = output_tensor.asnumpy()
撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题