- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我的目标是在 C++ 应用程序中运行经过tensorrt优化的 tensorflow 图。我正在使用tensorflow 1.8和tensorrt 4。使用python api,我能够优化图形并看到性能的良好提升。
尝试在 C++ 中运行该图失败,并出现以下错误:
未找到:操作类型未在 e15ff5301262 上运行的二进制文件中注册“TRTEngineOp”。确保 Op 和 Kernel 已在此进程中运行的二进制文件中注册。
其他非张量图也可以。我在使用 python api 时遇到了类似的错误,但通过导入tensorflow.contrib.tensorrt 解决了它。从错误中我相当确定内核和操作没有注册,但我不知道在构建 tensorflow 后如何在应用程序中注册。附带说明一下,我不能使用 bazel,但需要使用 cmake。到目前为止,我链接了 libtensorflow_cc.so
和 libtensorflow_framework.so
。
有人可以帮我吗?谢谢!
更新:使用c或c++ api加载_trt_engine_op.so
加载时不会抛出错误,但无法运行
Invalid argument: No OpKernel was registered to support Op 'TRTEngineOp' with these attrs. Registered devices: [CPU,GPU], Registered kernels:
<no registered kernels>
[[Node: my_trt_op3 = TRTEngineOp[InT=[DT_FLOAT, DT_FLOAT], OutT=[DT_FLOAT, DT_FLOAT, DT_FLOAT, DT_FLOAT], input_nodes=["tower_0/down_0/conv_0/Conv2D-0-TransposeNHWCToNCHW-LayoutOptimizer", "tower_0/down_0/conv_skip/Conv2D-0-TransposeNHWCToNCHW-LayoutOptimizer"], output_nodes=["tower_0/down_0/conv_skip/Relu", "tower_0/down_1/conv_skip/Relu", "tower_0/down_2/conv_skip/Relu", "tower_0/down_3/conv_skip/Relu"], serialized_engine="\220{I\000...00\000\000"](tower_0/down_0/conv_0/Conv2D-0-TransposeNHWCToNCHW-LayoutOptimizer, tower_0/down_0/conv_skip/Conv2D-0-TransposeNHWCToNCHW-LayoutOptimizer)]]
最佳答案
另一种解决 Tensorflow 1.8 上出现“未找到:Op 类型未注册‘TRTEngineOp’”错误问题的方法:
1) 在文件 tensorflow/contrib/tensorrt/BUILD
中,添加包含以下内容的新部分:
cc_library(
name = "trt_engine_op_kernel_cc",
srcs = [
"kernels/trt_calib_op.cc",
"kernels/trt_engine_op.cc",
"ops/trt_calib_op.cc",
"ops/trt_engine_op.cc",
"shape_fn/trt_shfn.cc",
],
hdrs = [
"kernels/trt_calib_op.h",
"kernels/trt_engine_op.h",
"shape_fn/trt_shfn.h",
],
copts = tf_copts(),
visibility = ["//visibility:public"],
deps = [
":trt_logging",
":trt_plugins",
":trt_resources",
"//tensorflow/core:gpu_headers_lib",
"//tensorflow/core:lib_proto_parsing",
"//tensorflow/core:stream_executor_headers_lib",
] + if_tensorrt([
"@local_config_tensorrt//:nv_infer",
]) + tf_custom_op_library_additional_deps(),
alwayslink = 1, # buildozer: disable=alwayslink-with-hdrs
)
2) 添加 //tensorflow/contrib/tensorrt:trt_engine_op_kernel_cc
作为您要构建的相应 BAZEL 项目的依赖项
PS:无需使用 TF_LoadLibrary 加载库_trt_engine_op.so
关于带有 TensorRT 的 C++ Tensorflow API,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/50125889/
我正在尝试使用以 TensorRT C++ API 原生编写的模型运行半精度推理(未从其他框架(如 caffe、tensorflow)解析);据我所知,没有这个问题的公共(public)工作示例;我找
batch为1时,如下: void* buffers[2]; buffers[inputIndex] = inputbuffer; buffers[outputIndex] = outputBuffe
大家好! 我在 TensorRT 中执行批量推理时遇到问题。当批量大小为 1 时,它就像一个魅力,但当我将它更改为任何其他数字时,它会给出普通的垃圾。 一步一步,我下载了 TensorRT (5.0)
从子进程运行 tensorrt 时遇到问题。我不确定这是一个 tensorrt 错误还是我做错了什么。如果这是一个集成错误,我想知道这是否已经在 tensorflow 1.7 的新版本中得到解决。 以
有了经过训练的“.h5”Keras 模型文件,我正在尝试优化推理时间: 探索了 2 个选项: 通过 TensorRT 加速推理 'int8' 量化。 此时我可以将模型文件转换为 TensorFlow
TRT::Tensor roi_align_inputs(TRT::DataType::Float); roi_align_inputs.resize(infer_batch_size * MAX_I
我正在尝试使用 TensorRT 加速 yolov3 TF2 的推理。我在tensorflow 2中使用TrtGraphConverter函数。 我的代码基本上是这样的: from tensorflo
我使用 Debian 安装在我的虚拟机上安装了 TensorRT。如果我运行“dpkg -l | grep TensorRT”,我会得到预期的结果: ii graphsurgeon-tf
这些是解决作业的指令? 将您的 TensorFlow 模型转换为 UFF 使用 TensorRT 的 C++ API 解析您的模型,将其转换为 CUDA 引擎。 TensorRT 引擎会自动优化您的模
我只是想下载TensorRT但我看到有两个不同的版本 GA和 RC .它们之间有什么区别,当我使用带有 Geforce GTX 960M 显卡的 Windows 10 机器时,我应该选择什么版本? 最
我发现我们可以通过多种方式优化 Tensorflow 模型。如果我弄错了,请告诉我。 1- 使用 TF-TRT , 这个 API 开发者由 tensorflow 和集成 TensoRT 到 Tenso
我的目标是在 C++ 应用程序中运行经过tensorrt优化的 tensorflow 图。我正在使用tensorflow 1.8和tensorrt 4。使用python api,我能够优化图形并看到性
我一直在尝试在桌面主机上编译一个基本的 tensorRT 项目——目前源代码如下: #include class Logger : nvinfer1::public ILogger { } glog
目录 1. 环境配置 1.1 OpenCV DNN 1.2 ONNXRuntime 1.3 Tenso
我在 Windows 上使用 TensorRT for python 时遇到问题。 我想在 Windows 上使用 openpose 但是它需要用于 python 的 TensorRT。当我尝试执行文
我正在尝试在 C++ 中运行 TensorRT 推理。有时,在尝试构建新引擎或从文件加载引擎时,代码会崩溃。它偶尔会发生(有时它运行没有任何问题)。我按照以下步骤准备网络: initLibNvInfe
我使用 Nvidia 的 Transfer Learning Toolkit (TLT) 进行训练,然后使用 tlt-converter 将 .etlt 模型转换为 .engine 文件。 我想在 p
我一直在使用 TensorRT 和 TensorFlow-TRT 来加速我的 DL 算法的推理。 然后我听说过: JAX https://github.com/google/jax 特拉克斯 http
我正在尝试使用 TensorRT 部署经过训练的 U-Net。该模型是使用 Keras 训练的(使用 Tensorflow 作为后端)。代码与此非常相似:https://github.com/zhix
我正在尝试加速分割模型(unet-mobilenet-512x512)。我使用 FP16 精度模式将我的 tensorflow 模型转换为 tensorRT。而且速度比我预想的要低。 在优化之前,我在
我是一名优秀的程序员,十分优秀!