- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试将 tensorflow 模型转换为 OpenVINO IR 文件。我已经从以下地址下载了预训练的模型:
http://download.tensorflow.org/models/object_detection/mask_rcnn_inception_v2_coco_2018_01_28.tar.gz
然后我提取该文件以获取名为“frozen_inference_graph.pb”的 .pb 文件然后我使用了OpenVINO文件夹中的转换命令
"IntelSWTools\openvino_2019.2.275\deployment_tools\model_optimizer\"
如下:
python mo_tf.py --input_model frozen_inference_graph.pb
但我收到以下错误消息。我该如何修改来解决这个问题?
Model Optimizer arguments:
Common parameters:
- Path to the Input Model: <my folder>\frozen_inference_graph.pb
- Path for generated IR: <my OpenVINO folder>\IntelSWTools\openvino_2019.2.275\deployment_tools\model_optimizer\.
- IR output name: frozen_inference_graph
- Log level: ERROR
- Batch: Not specified, inherited from the model
- Input layers: Not specified, inherited from the model
- Output layers: Not specified, inherited from the model
- Input shapes: Not specified, inherited from the model
- Mean values: Not specified
- Scale values: Not specified
- Scale factor: Not specified
- Precision of IR: FP32
- Enable fusing: True
- Enable grouped convolutions fusing: True
- Move mean values to preprocess section: False
- Reverse input channels: False
TensorFlow specific parameters:
- Input model in text protobuf format: False
- Path to model dump for TensorBoard: None
- List of shared libraries with TensorFlow custom layers implementation: None
- Update the configuration file with input/output node names: None
- Use configuration file used to generate the model with Object Detection API: None
- Operations to offload: None
- Patterns to offload: None
- Use the config file: None
Model Optimizer version: 2019.2.0-436-gf5827d4
C:\Program Files (x86)\Microsoft Visual Studio\Shared\Python36_64\lib\site-packages\tensorflow\python\framework\dtypes.py:458: FutureWarning: Passing (type, 1) or '1type' as a synonym of type is deprecated; in a future version of numpy, it will be understood as (type, (1,)) / '(1,)type'.
_np_qint8 = np.dtype([("qint8", np.int8, 1)])
[ ERROR ] Shape [-1 -1 -1 3] is not fully defined for output 0 of "image_tensor". Use --input_shape with positive integers to override model input shapes.
[ ERROR ] Cannot infer shapes or values for node "image_tensor".
[ ERROR ] Not all output shapes were inferred or fully defined for node "image_tensor". For more information please refer to Model Optimizer FAQ (https://docs.openvinotoolkit.org/latest/_docs_MO_DG_prepare_model_Model_Optimizer_FAQ.html), question #40.
[ ERROR ]
[ ERROR ] It can happen due to bug in custom shape infer function <function Parameter.__init__.<locals>.<lambda> at 0x000002032A17D378>.
[ ERROR ] Or because the node inputs have incorrect values/shapes.
[ ERROR ] Or because input shapes are incorrect (embedded to the model or passed via --input_shape).
[ ERROR ] Run Model Optimizer with --log_level=DEBUG for more information.
[ ERROR ] Exception occurred during running replacer "REPLACEMENT_ID" (<class 'extensions.middle.PartialInfer.PartialInfer'>): Stopped shape/value propagation at "image_tensor" node.
For more information please refer to Model Optimizer FAQ (https://docs.openvinotoolkit.org/latest/_docs_MO_DG_prepare_model_Model_Optimizer_FAQ.html), question #38.
Process finished with exit code 1
我尝试了许多其他 tensorflow 模型,但都有相同的问题。我使用了从1.2.0到1.14.0不同的tensorflow版本,但相同。
关于形状的关键词似乎是主要原因。但我怎样才能添加一些东西来避免这个问题呢?
Shape [-1 -1 -1 3] is not fully defined for output 0 of "image_tensor". Use --input_shape with positive integers to override model input shapes.
希望IR文件能够正确生成。
最佳答案
Openvino 模型优化器 (mo_tf.py) 需要更多参数。请同时传递以下内容。
python mo_tf.py --output_dir <\PATH> --input_model <\PATH>\mask_rcnn_inception_v2_coco_2018_01_28\frozen_inference_graph.pb --tensorflow_use_custom_operations_config 扩展\front\tf\mask_rcnn_support.json --tensorflow_object_detection_api_pipeline_config <\PATH>\mask_rcnn_inception_ v2_coco_2018_01_28\管道.configmask_rcnn_inception_v2_coco模型可以从https://github.com/tensorflow/models/blob/master/research/object_detection/g3doc/detection_model_zoo.md下载
关于OpenVINO 将 TF 模型转换为 IR 文件问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58133127/
我已经设置了自定义 SSIS IR,但是从 IR 节点上的当前工作目录或临时文件夹读取文件时遇到问题 https://learn.microsoft.com/en-us/sql/integration
我已经编写了一个修改中间表示 (IR) 代码的 LLVM pass。为了增加可移植性,我还希望它与 gcc 编译器一起工作。所以我想知道是否有任何工具可以将 gcc 的某些中间表示 (IR) 转换为
我已经下载了 Sony Android Add-on IR SDK ( http://developer.sonymobile.com/knowledge-base/sdks/sony-add-on-
我在手机中使用其他应用程序,使用它的 IR。但是当我尝试在任何项目中使用 IREmitter 时,它会触发该错误! mCIR = (ConsumerIrManager)getSystemService
我想找到一些 Clang/LLVM 的调试选项,其工作方式类似于 GCC -fdump-tree-all-all , -fdump-rtl-all ,和 -fdump-ipa-all-all . 基本
我使用 LLVM opt 来运行一个传递,例如,opt -load libMyPass.so my-pass foo.ll > foo1.ll。 foo.ll 是一个 IR 文件,我希望 foo1.l
我在 Raspian jessie(无像素)(所有更新和升级)上安装了当前的 lirc 包(0.9.0~pre1-1.2)并连接到(lirc 默认)GPIO 端口: 到 gpio 端口 17 - 通过
在学习 Antlr4 时,我使用 Golang 作为目标语言,所以我的玩具语言中的语句如下: $myVar = 10 $myVar + 5 将转换为一些生成结果“15”的 Golang 代码 但是,据
我正在尝试使用 SSIS 脚本任务连接到本地 REST Web 服务,并在 Azure 数据工厂的 SSIS-IR 上运行它,该 SSIS-IR 具有自托管 IR 的代理,最终连接到本地服务器。可行吗
我正在尝试关注 this链接以便为 c 代码生成 IR 表示。我使用的c代码如下 void main() { int c1 = 17; int c2 = 25; int c3 = c1 + c2
在为 lto 链接后,有没有办法获得 llvm IR?例如,我有以下行: $ clang -flto -O2 a.c main.c -fuse-ld=gold -v -save-temps 所以我想获
我正在通过这个学习 LLVM IR LangRef . 如本引用所述: LLVM programs are composed of Modules, each of which is a transl
如果这个问题听起来很愚蠢,我很抱歉。 为什么inverse document frequency使用日志?日志在 tf/idf 中有何帮助? 最佳答案 AFAIK,使用日志有助于使用几何分布对数字进行
我建立了一个LLVM定位前端,该前端会产生一些IR。随后并且完全可以预期,在某些情况下,IR输出是不正确的(例如,它看起来正确,但是执行时结果程序崩溃)。但是,我还没有找到很多有用的工具来解决这一问题
我想将C#编译为LLVM IR。因此,我认为将编译的CIL转换为LLVM IR是我可以尝试的一种方法。 我可以使用一些工具,例如vmkit和mono-llvm。 有人在使用此工具吗?或者如何将CIL转
如何创建图像以及如何使用十六进制颜色代码逐像素为其着色? 例如。我想创建一个 100x100 像素的图像,并且我想要 1x1 区域的颜色为“$002125”,2x2 区域的颜色为“$125487”..
我正在测试一个 main 函数,它只返回 void 并且在使用 lli 运行位码时出现核心转储错误(信号 65 或 73)。 : define void @main() { entry: ret
我收到一个要求,其中我有一个 c 文件,并且我正在为其生成 LLVM IR。从为每条指令生成的 LLVM IR 中,我正在计算执行需要多少个周期,现在我的问题是如何追溯到 C 代码并显示特定的 C 代
我目前正在尝试运行其他人留下的 sql 命令/脚本来建立数据库。他们有这个脚本 BEGIN; \ir file.sql \ir file.sql END; 它在第一个反斜杠处给出错误。我正在使用 Po
我特别需要在我的 C++ 代码运行期间逐行解析 LLVM IR 代码,我需要知道每行的哪些操作数发生了什么操作。 例如,如果 IR 代码是: %0 = load i32* %a, align 4 我想
我是一名优秀的程序员,十分优秀!