gpt4 book ai didi

c++ - 如何在多个内核中使用 Eigen::Tensor::convolve?

转载 作者:行者123 更新时间:2023-12-03 18:16:30 24 4
gpt4 key购买 nike

卷积形状为 (3, 20, 30) 的输入张量( channel 优先符号)与 8形状过滤器 (3, 5, 7)应该导致形状张量 (8, 24, 16) .我正在尝试使用 Eigen::Tensor::convolve 来实现这一点,但结果形状是 (1, 24, 16) .所以似乎只应用了一个过滤器而不是所有 8 .

这是一个最小的例子:

#include <cassert>
#include <iostream>
#include <eigen3/unsupported/Eigen/CXX11/Tensor>

int main() {
int input_height = 20;
int input_width = 30;
int input_channels = 3;

int kernels_height = 5;
int kernels_width = 7;
int kernels_channels = 3;
int kernel_count = 8;

assert(kernels_channels == input_channels);

int expected_output_height = input_height + 1 - kernels_height;
int expected_output_width = input_width + 1 - kernels_width;
int expected_output_channels = kernel_count;

Eigen::Tensor<float, 3> input(input_channels, input_width, input_height);
Eigen::Tensor<float, 4> filters(kernels_channels, kernels_width, kernels_height, kernel_count);

Eigen::array<ptrdiff_t, 3> dims({0, 1, 2});
Eigen::Tensor<float, 3> output = input.convolve(filters, dims);

const Eigen::Tensor<float, 3>::Dimensions& d = output.dimensions();

std::cout << "Expected output shape: (" << expected_output_channels << ", " << expected_output_width << ", " << expected_output_height << ")" << std::endl;
std::cout << "Actual shape: (" << d[0] << ", " << d[1] << ", " << d[2] << ")" << std::endl;
}

它的输出:
Expected output shape: (8, 24, 16)
Actual shape: (1, 24, 16)

当然可以 iterate over the filters one by one and call .convolve for each one但是这个
  • 将导致 channel 不是第一维的张量
  • 可能不会像一次调用那样对性能进行优化
  • 需要更多自定义代码

  • 所以我想我在使用 Eigen 库时做错了什么。它是如何正确完成的?

    最佳答案

    它不支持同时使用多个内核进行卷积( docs ):

    The dimension size for dimensions of the output tensor which were part of the convolution will be reduced by the formula: output_dim_size = input_dim_size - kernel_dim_size + 1 (requires: input_dim_size >= kernel_dim_size). The dimension sizes for dimensions that were not part of the convolution will remain the same.



    根据以上 expected_output_channels应该等于 1 = 3 - 3 + 1 .

    我不认为应该可以按照你的意愿去做,因为卷积运算是一种数学运算并且定义良好,所以如果它不遵循数学定义会很奇怪。

    未测试解决方案

    我没有检查,但我相信下一个代码会按照您的意愿产生输出:
    Eigen::Tensor<float, 3> input(input_channels, input_width, input_height);
    Eigen::Tensor<float, 4> filters(kernels_channels, kernels_width, kernels_height, kernel_count);
    Eigen::Tensor<float, 3> output(kernel_count, expected_output_width, expected_output_height);

    Eigen::array<ptrdiff_t, 3> dims({0, 1, 2});

    for (int i = 0; i < kernel_count; ++i){
    output.chip(i, 0) = input.convolve(filters.chip(i, 3), dims).chip(0, 0);
    }

    如您所见,第一和第三个问题并不是什么大问题。希望你会很幸运,这部分代码不会成为你的瓶颈:)

    关于c++ - 如何在多个内核中使用 Eigen::Tensor::convolve?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58788433/

    24 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com