gpt4 book ai didi

c++ - 在已经使用 tensorflow 作为第三方的 c++ 库中使用新的 tensorflow op

转载 作者:塔克拉玛干 更新时间:2023-11-03 02:20:48 25 4
gpt4 key购买 nike

这是我第一次在 stackoverflow 中提问。我会尽力正确地提出我的问题。

我想在 C++ 库中使用自定义 tensorflow op,它已经使用 tensorflow 作为第三方。但我根本不知道如何在 C++ 代码中使用我的自定义操作。我正在尝试通过 Tensroflow c++ 教程中的简单 ZeroOut 示例来学习这一点。我在 https://github.com/MatteoRagni/tf.ZeroOut.gpu 中为 cpu 注册了 ZeroOut op。 :使用 make 进行编译,我在 usr-ops 文件夹中得到了一个 .so 文件,cc 文件也位于该文件夹中。然后我尝试将 ZeroOut.so 文件作为共享库添加到我的库中,但它没有编译。但是,在我添加我的自定义操作之前,按照 tensorflow 新操作教程中的描述在 bazel 中注册,以相同的方式和我的库编译。可能是因为 .so 文件是在 ../bazel-bin/tensorflow/core/user_ops/中创建的。但在这种情况下,我无法按应有的方式使用该操作。在我的 C++ 文件中包含 ZeroOut.cpp 或我的操作的 .cpp 文件直到现在都没有任何区别。

这是我的 CMakeList.txt,它还创建了我正在使用的整个库:

cmake_minimum_required(VERSION 2.8)
project(Project1)

set(CMAKE_BUILD_TYPE "Release") # Debug Release
set(CMAKE_CXX_FLAGS_RELEASE "$ENV{CXXFLAGS} -std=c++14 -O3 -Wall -fopenmp")
SET(CMAKE_MODULE_PATH ${PROJECT_SOURCE_DIR}/cmake)

#-------------path of 3rd party libraries-------------
# special libs.
find_package(Boost COMPONENTS filesystem iostreams regex)
find_package(FFTW)
find_package(NLopt)
find_package(HDF5 COMPONENTS CXX)

set(EXTERN_LIB_ROOT ${PROJECT_SOURCE_DIR}/3rd-party)

set(TENSORFLOW_ROOT /.../tensorflow)
set(TF_INCLUDE_DIRS "${TENSORFLOW_ROOT}" "${TENSORFLOW_ROOT}/bazel- genfiles" "${TENSORFLOW_ROOT}/bazel-tensorflow/external/protobuf_archive/src")

# lib dirs.
set(LUA_LIBRARIES "${EXTERN_LIB_ROOT}/lua/liblua53.so") #5.3.4
set(LINENOISE_LIBRARIES "${EXTERN_LIB_ROOT}/linenoise-ng/build/liblinenoise.so")
set(YACAS_LIBRARIES "${EXTERN_LIB_ROOT}/yacas/cyacas/libyacas/build/libyacas.so")


set(TF_LIBRARIES ${TENSORFLOW_ROOT}/bazel-bin/tensorflow/libtensorflow_cc.so
${TENSORFLOW_ROOT}/tensorflow/core/user_ops/tf.ZeroOut.gpu-master/zero_out.so
${TENSORFLOW_ROOT}/bazel-bin/tensorflow/core/user_ops/MyNewOp.so)
#-------------ssl headers-------------
include_directories(${PROJECT_SOURCE_DIR}/src
${EXTERN_LIB_ROOT}/eigen
${EXTERN_LIB_ROOT}/gnuplot-iostream
${EXTERN_LIB_ROOT}/
${EXTERN_LIB_ROOT}/linenoise-ng/include
${EXTERN_LIB_ROOT}/yacas/cyacas/libyacas/include
${EXTERN_LIB_ROOT}/lua/src
${NLOPT_INCLUDE_DIRS}
${FFTW_INCLUDES}
${TF_INCLUDE_DIRS}
${Boost_INCLUDE_DIRS}
${HDF5_INCLUDE_DIRS}
${TENSORFLOW_ROOT})

option(BUILD_SHARED_LIBS "build shared library" ON)
set(LIBRARY_OUTPUT_PATH ${PROJECT_BINARY_DIR}/lib)

#-------------ssl kernel lib-------------
file(GLOB_RECURSE _src_list
LIST_DIRECTORIES false
RELATIVE "${CMAKE_CURRENT_SOURCE_DIR}" "${PROJECT_SOURCE_DIR}/src/*.h" "${PROJECT_SOURCE_DIR}/src/*.cpp" "")

add_library(ssl SHARED ${_src_list})

set(SSL_LIBRARIES ${TF_LIBRARIES} ${LUA_LIBRARIES} ${Boost_LIBRARIES} ${NLOPT_LIBRARIES} ${FFTW_LIBRARIES} ${LINENOISE_LIBRARIES} ${YACAS_LIBRARIES} ${HDF5_CXX_LIBRARIES}) #${TF_LIBRARIES}

target_link_libraries(ssl ${SSL_LIBRARIES} dl)

add_executable(Project1 main.cpp)
target_link_libraries(Project1 ssl)

有一个相关的问题,但没有明确的答案。 How to run custom GPU tensorflow::op from C++ code?

我做错了什么?我没有共享库的经验,但也许还有其他更好的方法来做我想做的事情......?有人可以帮助我,也许可以举一个所需的 CMakeList.txt 的例子吗?

关于我在运行时遇到的错误:这是一个非常微不足道的问题,如果使用正确数量的参数调用,则无法找到我的 .so 文件中的函数,如果使用错误的参数调用,它就不会运行。与此同时,我找到了更好的解决方法。由于我可以在 python 中使用我的自定义操作,我将在我的 c++ 库中嵌入 python,调用 python 函数来制作图形,这将调用我的自定义操作来构建图形。但我还没有完成。

最佳答案

使用pkg_config就变得非常简单:

cmake_minimum_required(VERSION 3.10)
project(tf-inference)

find_package(PkgConfig)
pkg_check_modules(TensorFlow REQUIRED tensorflow)

link_directories(${TensorFlow_LIBRARY_DIRS})
include_directories(${TensorFlow_INCLUDE_DIRS})
add_compile_definitions(${TensorFlow_CFLAGS_OTHER})

add_executable(tf-inference inference.cpp)
target_link_libraries(tf-inference ${TensorFlow_LIBRARIES})

但是,这需要您的 TensorFlow 安装包含 tensorflow.pc 文件。在 MacOS 上:brew install libtensorflow 将包含此文件,以上内容会自动运行。

关于c++ - 在已经使用 tensorflow 作为第三方的 c++ 库中使用新的 tensorflow op,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51074097/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com