onnx 模型转成 华为的 om 模型之后,使用哪个 python 包推理?

最近在搞国产 GPU 的适配

用的 GPU 是 ascend310

遇到一个问题,网上说的都是什么离线模型使用

但是,我想知道的是这个 om 可以用 python 调用推理吗?

比如 onnx 模型可以用 onnxruntime 包调用推理

但是华为的 om 模型怎么用 python 调用?

阅读 4.5k
2 个回答

先安装MindSpore:

import numpy as np
import mindspore
from mindspore import context, Tensor
from mindspore.train.serialization import load

context.set_context(mode=context.GRAPH_MODE, device_target="Ascend")

model = load("path/to/your/model.om")

input_data = np.array([[1.0, 2.0], [3.0, 4.0]], dtype=np.float32)
input_tensor = Tensor(input_data)

output_tensor = model(input_tensor)

output_data = output_tensor.asnumpy()
推荐问题