gpt4 book ai didi

openvino - 使用openvino无法获得与pytorch模型相同的输出

转载 作者:行者123 更新时间:2023-12-03 06:37:05 30 4
gpt4 key购买 nike

我在尝试使用 OpenVino 时遇到了一个奇怪的问题。

我已将 pytorch 模型导出到 onnx,然后使用以下命令将其导入到 OpenVino:

python /opt/intel/openvino/deployment_tools/model_optimizer/mo.py --input_model ~/Downloads/unet2d.onnx --disable_resnet_optimization --disable_fusing --disable_gfusing --data_type=FP32

因此,对于测试用例,我禁用了优化。

现在,使用示例 python 应用程序,我使用模型运行推理,如下所示:

from openvino.inference_engine import IENetwork, IECore
import numpy as np

model_xml = path.expanduser('model.xml')
model_bin = path.expanduser('model.bin')
ie = IECore()
net = IENetwork(model=model_xml, weights=model_bin)
input_blob = next(iter(net.inputs))
out_blob = next(iter(net.outputs))
net.batch_size = 1

exec_net = ie.load_network(network=net, device_name='CPU')
np.random.seed(0)
x = np.random.randn(1, 2, 256, 256) # expected input shape
res = exec_net.infer(inputs={input_blob: x})
res = res[out_blob]

问题是,这似乎输出了与我的 onnx 或 pytorch 模型完全不同的东西。

此外,我意识到我什至不需要传递输入,所以如果我这样做:

x = None
res = exec_net.infer(inputs={input_blob: x})

这仍然返回相同的输出!所以这似乎表明我的输入不知何故被忽略或类似的东西?

最佳答案

你可以尝试不使用 --disable_resnet_optimization --disable_fusing --disable_gfusing保留优化。

关于openvino - 使用openvino无法获得与pytorch模型相同的输出,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57496462/

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com