- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我正在使用 ML.NET 导入 ONNX 模型来进行对象检测。作为记录,我从 Microsoft 的 CustomVision.ai 站点导出了模型。
我检查了 Netron 中的模型文件,它清楚地显示输入节点名为“data”,输出节点名为“model_outputs0”。
但是,当我尝试运行这行代码来应用 ONNX 模型时
var pipeline = mlContext.Transforms.ApplyOnnxModel(modelFile: modelLocation, outputColumnNames: new[] { "model_outputs0" }, inputColumnNames: new[] { "data" }, gpuDeviceId: 0, fallbackToCpu: true);
// Fit scoring pipeline
var model = pipeline.Fit(data);
我收到以下错误:
Could not find input column 'data' Parameter name: inputSchema
这清楚地说它找不到数据的输入列,尽管我清楚地看到那是 Netron 中的名称,如您所见:
现在,这是我真的不明白的部分。当我尝试其他输出名称时,它有一个不同的错误,基本上告诉我它实际上应该是数据:
Parameter name: Input tensor, image, does not exist in the ONNX model. Available input names are [data]. Actual value was image.
最佳答案
我遇到了同样的问题并看到了这篇文章。经过一段时间的努力,我现在发现将这个输入列放入其他附加函数对我来说是有效的——让我在这里展示一下
这是我来自微软官方文档的代码:
var pipeline = mlContext.Transforms.LoadImages(outputColumnName: "image", imageFolder: "", inputColumnName: nameof(ImageNetData.ImagePath))
.Append(mlContext.Transforms.ResizeImages(outputColumnName: "image", imageWidth: ImageNetSettings.imageWidth, imageHeight: ImageNetSettings.imageHeight, inputColumnName: "image"))
.Append(mlContext.Transforms.ExtractPixels(outputColumnName: "image"))
.Append(mlContext.Transforms.ApplyOnnxModel(modelFile: modelLocation, outputColumnNames: new[] { TinyYoloModelSettings.ModelOutput }, inputColumnNames: new[] { TinyYoloModelSettings.ModelInput }));
ModelInput 和 ModelOutput 被声明为常量字符串,在文档中有提示用 Netron 查找值来替换它。但也有 .ResizeImages() 和 .LoadImages() 以及 .ExtractPixels() - 这里是 outputColumnName。对我来说,它可以使用 ModelInput 值对其进行配置 - 对我来说这是“数据” - 我在 customvision.ai 导出了 ONNX
所以现在我遇到了另一个问题,但我认为这对我有用。所以给它一个机会
清除我更改的代码
var pipeline = mlContext.Transforms.LoadImages(outputColumnName: "data", imageFolder: "", inputColumnName: nameof(ImageNetData.ImagePath))
.Append(mlContext.Transforms.ResizeImages(outputColumnName: "data", imageWidth: ImageNetSettings.imageWidth, imageHeight: ImageNetSettings.imageHeight, inputColumnName: "data"))
.Append(mlContext.Transforms.ExtractPixels(outputColumnName: "data"))
.Append(mlContext.Transforms.ApplyOnnxModel(modelFile: modelLocation, outputColumnNames: new[] { TinyYoloModelSettings.ModelOutput }, inputColumnNames: new[] { TinyYoloModelSettings.ModelInput }));
var model = pipeline.Fit(data);
关于c# - 无法使 ONNX 模型的输入列名称起作用,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57264865/
当我将在 Pytorch 上训练的双线性层网络转换为 ONNX 时,出现以下错误 RuntimeError: [ONNXRuntimeError] : 10 : INVALID_GRAPH : Loa
当我将在 Pytorch 上训练的双线性层网络转换为 ONNX 时,出现以下错误 RuntimeError: [ONNXRuntimeError] : 10 : INVALID_GRAPH : Loa
我尝试将我的 PyTorch 对象检测模型 (Faster R-CNN) 转换为 ONNX。我有两个设置。第一个工作正常,但出于部署原因我想使用第二个。区别在于我用于导出函数 torch.onnx.e
我正在尝试从 onnx 模型中提取输入层、输出层及其形状等数据。我知道有 python 接口(interface)可以做到这一点。我想做类似的事情 code但在 C++ 中。我还粘贴了链接中的代码。我
** ONNX Runtime****:由微软推出,用于优化和加速机器学习推理和训练**,适用于ONNX模型,是一个跨平台推理和训练机器学习加速器(ONNX Runtime is a cro
我已将我的 PyTorch 模型导出到 ONNX。现在,有没有办法让我从那个 ONNX 模型中获取输入层? 将 PyTorch 模型导出到 ONNX import torch.onnx checkpo
如何找到 onnx 模型的输入大小?我最终想从 python 编写它的脚本。 使用 tensorflow 我可以恢复图定义,从中找到输入候选节点,然后获取它们的大小。我可以用 ONNX(甚至更简单)做
我正在使用 ML.NET 导入 ONNX 模型来进行对象检测。作为记录,我从 Microsoft 的 CustomVision.ai 站点导出了模型。 我检查了 Netron 中的模型文件,它清楚地显
如何从 ONNX 模型中获取权重/偏置矩阵值,我目前可以从 model.onnx 中获取输入、内核大小、步幅和填充值。我加载模型,然后读取图形节点以获得相同的结果: import onnx m = o
我正在尝试将预先训练好的火炬模型转换为 ONNX,但收到以下错误: RuntimeError: step!=1 is currently not supported 我正在一个预先训练的着色模型上尝试
使用 ONNX Runtime 在深度学习模型上运行推理。假设我有 4 个不同的模型,每个模型都有自己的输入图像,我可以在 4 个线程中并行运行它们吗?会不会有一个“环境”,然后是 4 个 sessi
我已通过以下方式将模型导出到 ONNX: # Export the model torch_out = torch.onnx._export(learn.model, # mo
如何将 OpenCV 框架转换为适合我的 ONNX 模型接受的尺寸?目前,我的 ONNX 模型输入形状是 [32, 3, 256, 224],但是当我使用 OPENCV 调整大小并打印 img 形状时
我尝试将我的 pytorch Resnet50 模型转换为 ONNX 并进行推理。转换程序没有错误,但是onnx模型的最终结果来自onnxruntime与pytorch的origin模型结果有较大差距
我有一个卡住为 .pb 的 TensorFlow 图,我想将其转换为 .onnx 格式。我目前正在尝试使用 mmconvert (来自 Microsoft 的 MMdnn ),显然我做错了什么(请参见
我目前正在尝试将我使用本教程创建的已保存(且正在工作)的 .pb 文件 ( https://github.com/thtrieu/darkflow ) 转换为 onnx 文件。我现在正在使用winML
我正在尝试将具有多个网络的 pytorch 模型转换为 ONNX,但遇到了一些问题。 git 存储库:https://github.com/InterDigitalInc/HRFAE 训练师类: cl
我从 Matterport's MaskRCNN implementation 在 .h5 中构建了一个自定义模型.我使用 model.keras_model.save() 设法保存了完整模型而不是单
我找不到任何人向外行人解释如何将 onnx 模型加载到 python 脚本中,然后在输入图像时使用该模型进行预测。我能找到的只有这些代码行: sess = rt.InferenceSession("o
有没有办法并行运行多个 ONNX 模型并使用多个可用内核? 目前,我已经训练了两个 ONNX 模型并想使用它们进行推断。我使用了 Python 中的线程,但这并没有真正使用多核。 之后,我尝试了多处理
我是一名优秀的程序员,十分优秀!