- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我已通过以下方式将模型导出到 ONNX:
# Export the model
torch_out = torch.onnx._export(learn.model, # model being run
x, # model input (or a tuple for multiple inputs)
EXPORT_PATH + "mnist.onnx", # where to save the model (can be a file or file-like object)
export_params=True) # store the trained parameter weights inside the model file
tf_rep.export_graph(EXPORT_PATH + 'mnist-test/mnist-tf-export.pb')
toco
:
toco \
--graph_def_file=mnist-tf-export.pb \
--input_format=TENSORFLOW_GRAPHDEF \
--output_format=TFLITE \
--inference_type=FLOAT \
--input_type=FLOAT \
--input_arrays=0 \
--output_arrays=add_10 \
--input_shapes=1,3,28,28 \
--output_file=mnist.tflite`
File "anaconda3/lib/python3.6/site-packages/tensorflow/lite/python/convert.py", line 172, in toco_convert_protos
"TOCO failed. See console for info.\n%s\n%s\n" % (stdout, stderr))
tensorflow.lite.python.convert.ConverterError: TOCO failed. See console for info.
2018-11-06 16:28:33.864889: I tensorflow/lite/toco/import_tensorflow.cc:1268] Converting unsupported operation: PyFunc
2018-11-06 16:28:33.874130: F tensorflow/lite/toco/import_tensorflow.cc:114] Check failed: attr.value_case() == AttrValue::kType (1 vs. 6)
最佳答案
我认为 ONNX 文件,即 model.onnx
您提供的已损坏我不知道是什么问题,但它没有对 ONNX 运行时进行任何推断。
Now you can run PyTorch Models directly on mobile phones. check out PyTorch Mobile's documentation here
This answer is for TensorFlow version 1,
For TensorFlow version 2 or higher click link
This class (tf.compat.v1.lite.TocoConverter) has been deprecated. Please use lite.TFLiteConverter instead.
# Export the model from PyTorch to ONNX
torch_out = torch.onnx._export(model, # model being run
x, # model input (or a tuple for multiple inputs)
EXPORT_PATH + "mnist.onnx", # where to save the model (can be a file or file-like object)
export_params=True, # store the trained parameter weights inside the model file
input_names=['main_input'], # specify the name of input layer in onnx model
output_names=['main_output']) # specify the name of input layer in onnx model
所以在你的情况下:
Please note that this method is only working when tensorflow_version < 2
pip install onnx-tf==1.5.0
现在要将 .onnx 模型转换为 TensorFlow 卡住图,请在 shell 中运行以下命令
onnx-tf convert -i "mnist.onnx" -o "mnist.pb"
从 TensorFlow FreezeGraph .pb 转换为 TF
import tensorflow as tf
# make a converter object from the saved tensorflow file
converter = tf.lite.TFLiteConverter.from_frozen_graph('mnist.pb', #TensorFlow freezegraph .pb model file
input_arrays=['main_input'], # name of input arrays as defined in torch.onnx.export function before.
output_arrays=['main_output'] # name of output arrays defined in torch.onnx.export function before.
)
# tell converter which type of optimization techniques to use
converter.optimizations = [tf.lite.Optimize.DEFAULT]
# to view the best option for optimization read documentation of tflite about optimization
# go to this link https://www.tensorflow.org/lite/guide/get_started#4_optimize_your_model_optional
# convert the model
tf_lite_model = converter.convert()
# save the converted model
open('mnist.tflite', 'wb').write(tf_lite_model)
要为您的模型用例选择最适合优化的选项,请参阅有关 TensorFlow lite 优化的官方指南
Note: You can try my Jupyter Notebook Convert ONNX model to Tensorflow Lite on Google Colaboratory link
关于tensorflow - 你如何将 .onnx 转换为 tflite?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53182177/
当我将在 Pytorch 上训练的双线性层网络转换为 ONNX 时,出现以下错误 RuntimeError: [ONNXRuntimeError] : 10 : INVALID_GRAPH : Loa
当我将在 Pytorch 上训练的双线性层网络转换为 ONNX 时,出现以下错误 RuntimeError: [ONNXRuntimeError] : 10 : INVALID_GRAPH : Loa
我尝试将我的 PyTorch 对象检测模型 (Faster R-CNN) 转换为 ONNX。我有两个设置。第一个工作正常,但出于部署原因我想使用第二个。区别在于我用于导出函数 torch.onnx.e
我正在尝试从 onnx 模型中提取输入层、输出层及其形状等数据。我知道有 python 接口(interface)可以做到这一点。我想做类似的事情 code但在 C++ 中。我还粘贴了链接中的代码。我
** ONNX Runtime****:由微软推出,用于优化和加速机器学习推理和训练**,适用于ONNX模型,是一个跨平台推理和训练机器学习加速器(ONNX Runtime is a cro
我已将我的 PyTorch 模型导出到 ONNX。现在,有没有办法让我从那个 ONNX 模型中获取输入层? 将 PyTorch 模型导出到 ONNX import torch.onnx checkpo
如何找到 onnx 模型的输入大小?我最终想从 python 编写它的脚本。 使用 tensorflow 我可以恢复图定义,从中找到输入候选节点,然后获取它们的大小。我可以用 ONNX(甚至更简单)做
我正在使用 ML.NET 导入 ONNX 模型来进行对象检测。作为记录,我从 Microsoft 的 CustomVision.ai 站点导出了模型。 我检查了 Netron 中的模型文件,它清楚地显
如何从 ONNX 模型中获取权重/偏置矩阵值,我目前可以从 model.onnx 中获取输入、内核大小、步幅和填充值。我加载模型,然后读取图形节点以获得相同的结果: import onnx m = o
我正在尝试将预先训练好的火炬模型转换为 ONNX,但收到以下错误: RuntimeError: step!=1 is currently not supported 我正在一个预先训练的着色模型上尝试
使用 ONNX Runtime 在深度学习模型上运行推理。假设我有 4 个不同的模型,每个模型都有自己的输入图像,我可以在 4 个线程中并行运行它们吗?会不会有一个“环境”,然后是 4 个 sessi
我已通过以下方式将模型导出到 ONNX: # Export the model torch_out = torch.onnx._export(learn.model, # mo
如何将 OpenCV 框架转换为适合我的 ONNX 模型接受的尺寸?目前,我的 ONNX 模型输入形状是 [32, 3, 256, 224],但是当我使用 OPENCV 调整大小并打印 img 形状时
我尝试将我的 pytorch Resnet50 模型转换为 ONNX 并进行推理。转换程序没有错误,但是onnx模型的最终结果来自onnxruntime与pytorch的origin模型结果有较大差距
我有一个卡住为 .pb 的 TensorFlow 图,我想将其转换为 .onnx 格式。我目前正在尝试使用 mmconvert (来自 Microsoft 的 MMdnn ),显然我做错了什么(请参见
我目前正在尝试将我使用本教程创建的已保存(且正在工作)的 .pb 文件 ( https://github.com/thtrieu/darkflow ) 转换为 onnx 文件。我现在正在使用winML
我正在尝试将具有多个网络的 pytorch 模型转换为 ONNX,但遇到了一些问题。 git 存储库:https://github.com/InterDigitalInc/HRFAE 训练师类: cl
我从 Matterport's MaskRCNN implementation 在 .h5 中构建了一个自定义模型.我使用 model.keras_model.save() 设法保存了完整模型而不是单
我找不到任何人向外行人解释如何将 onnx 模型加载到 python 脚本中,然后在输入图像时使用该模型进行预测。我能找到的只有这些代码行: sess = rt.InferenceSession("o
有没有办法并行运行多个 ONNX 模型并使用多个可用内核? 目前,我已经训练了两个 ONNX 模型并想使用它们进行推断。我使用了 Python 中的线程,但这并没有真正使用多核。 之后,我尝试了多处理
我是一名优秀的程序员,十分优秀!