gpt4 book ai didi

使用 FFT 互相关进行 C++ 模式匹配(图像)

转载 作者:搜寻专家 更新时间:2023-10-31 02:21:40 26 4
gpt4 key购买 nike

每个人我都在尝试使用 FFT 实现模式匹配,但我不确定结果应该是什么(我想我错过了一些东西,即使阅读了很多关于这个问题的内容并尝试了很多不同的实现,这个是最好的迄今为止)。这是我的 FFT 相关函数。

void fft2d(fftw_complex**& a, int rows, int cols, bool forward = true)
{
fftw_plan p;
for (int i = 0; i < rows; ++i)
{
p = fftw_plan_dft_1d(cols, a[i], a[i], forward ? FFTW_FORWARD : FFTW_BACKWARD, FFTW_ESTIMATE);
fftw_execute(p);
}

fftw_complex* t = (fftw_complex*)fftw_malloc(rows * sizeof(fftw_complex));

for (int j = 0; j < cols; ++j)
{
for (int i = 0; i < rows; ++i)
{
t[i][0] = a[i][j][0];
t[i][1] = a[i][j][1];
}

p = fftw_plan_dft_1d(rows, t, t, forward ? FFTW_FORWARD : FFTW_BACKWARD, FFTW_ESTIMATE);
fftw_execute(p);

for (int i = 0; i < rows; ++i)
{
a[i][j][0] = t[i][0];
a[i][j][1] = t[i][1];
}
}

fftw_free(t);
}

int findCorrelation(int argc, char* argv[])
{
BMP bigImage;
BMP keyImage;
BMP result;
RGBApixel blackPixel = { 0, 0, 0, 1 };
const bool swapQuadrants = (argc == 4);

if (argc < 3 || argc > 4) {
cout << "correlation img1.bmp img2.bmp" << endl;
return 1;
}

if (!keyImage.ReadFromFile(argv[1])) {
return 1;
}

if (!bigImage.ReadFromFile(argv[2])) {
return 1;
}
//Preparations
const int maxWidth = std::max(bigImage.TellWidth(), keyImage.TellWidth());
const int maxHeight = std::max(bigImage.TellHeight(), keyImage.TellHeight());

const int rowsCount = maxHeight;
const int colsCount = maxWidth;

BMP bigTemp = bigImage;
BMP keyTemp = keyImage;

keyImage.SetSize(maxWidth, maxHeight);
bigImage.SetSize(maxWidth, maxHeight);

for (int i = 0; i < rowsCount; ++i)
for (int j = 0; j < colsCount; ++j) {
RGBApixel p1;

if (i < bigTemp.TellHeight() && j < bigTemp.TellWidth()) {
p1 = bigTemp.GetPixel(j, i);
} else {
p1 = blackPixel;
}

bigImage.SetPixel(j, i, p1);

RGBApixel p2;

if (i < keyTemp.TellHeight() && j < keyTemp.TellWidth()) {
p2 = keyTemp.GetPixel(j, i);
} else {
p2 = blackPixel;
}

keyImage.SetPixel(j, i, p2);
}
//Here is where the transforms begin
fftw_complex **a = (fftw_complex**)fftw_malloc(rowsCount * sizeof(fftw_complex*));
fftw_complex **b = (fftw_complex**)fftw_malloc(rowsCount * sizeof(fftw_complex*));
fftw_complex **c = (fftw_complex**)fftw_malloc(rowsCount * sizeof(fftw_complex*));

for (int i = 0; i < rowsCount; ++i) {

a[i] = (fftw_complex*)fftw_malloc(colsCount * sizeof(fftw_complex));
b[i] = (fftw_complex*)fftw_malloc(colsCount * sizeof(fftw_complex));
c[i] = (fftw_complex*)fftw_malloc(colsCount * sizeof(fftw_complex));

for (int j = 0; j < colsCount; ++j) {
RGBApixel p1;

p1 = bigImage.GetPixel(j, i);

a[i][j][0] = (0.299*p1.Red + 0.587*p1.Green + 0.114*p1.Blue);
a[i][j][1] = 0.0;

RGBApixel p2;

p2 = keyImage.GetPixel(j, i);

b[i][j][0] = (0.299*p2.Red + 0.587*p2.Green + 0.114*p2.Blue);
b[i][j][1] = 0.0;
}
}

fft2d(a, rowsCount, colsCount);
fft2d(b, rowsCount, colsCount);

result.SetSize(maxWidth, maxHeight);

for (int i = 0; i < rowsCount; ++i)
for (int j = 0; j < colsCount; ++j) {
fftw_complex& y = a[i][j];
fftw_complex& x = b[i][j];

double u = x[0], v = x[1];
double m = y[0], n = y[1];

c[i][j][0] = u*m + n*v;
c[i][j][1] = v*m - u*n;

int fx = j;
if (fx>(colsCount / 2)) fx -= colsCount;

int fy = i;
if (fy>(rowsCount / 2)) fy -= rowsCount;

float r2 = (fx*fx + fy*fy);

const double cuttoffCoef = (maxWidth * maxHeight) / 37992.;
if (r2<128 * 128 * cuttoffCoef)
c[i][j][0] = c[i][j][1] = 0;
}

fft2d(c, rowsCount, colsCount, false);

const int halfCols = colsCount / 2;
const int halfRows = rowsCount / 2;

if (swapQuadrants) {
for (int i = 0; i < halfRows; ++i)
for (int j = 0; j < halfCols; ++j) {
std::swap(c[i][j][0], c[i + halfRows][j + halfCols][0]);
std::swap(c[i][j][1], c[i + halfRows][j + halfCols][1]);
}

for (int i = halfRows; i < rowsCount; ++i)
for (int j = 0; j < halfCols; ++j) {
std::swap(c[i][j][0], c[i - halfRows][j + halfCols][0]);
std::swap(c[i][j][1], c[i - halfRows][j + halfCols][1]);
}
}

for (int i = 0; i < rowsCount; ++i)
for (int j = 0; j < colsCount; ++j) {
const double& g = c[i][j][0];
RGBApixel pixel;

pixel.Alpha = 0;
int gInt = 255 - static_cast<int>(std::floor(g + 0.5));
pixel.Red = gInt;
pixel.Green = gInt;
pixel.Blue = gInt;

result.SetPixel(j, i, pixel);
}


BMP res;
res.SetSize(maxWidth, maxHeight);

result.WriteToFile("result.bmp");

return 0;
}

样本输出 Result from calling the function

最佳答案

这个问题可能更适合发布在另一个网站上,如 cross validated。 (metaoptimize.com 曾经也是一个不错的网站,但它似乎已经消失了)

那说:

您可以使用 FFT 执行两种类似的操作:卷积和相关。卷积用于确定两个信号如何相互作用,而相关性可用于表示两个信号彼此之间的相似程度。确保您进行了正确的操作,因为它们通常都是通过 DFT 实现的。

对于这种类型的 DFT 应用,您通常不会在傅立叶频谱中提取任何有用的信息,除非您正在寻找两个数据源或其他任何共同的频率(例如,如果您正在比较两个桥以查看它们的支撑是否间隔相似) )。

您的第三张图片看起来很像电源域;通常我看到相关输出完全是灰色的,除非发生重叠。您的代码显然是在计算逆 DFT,所以除非我遗漏了什么,否则我对模糊外观提出的唯一其他解释可能是其中的一些“软糖因子”代码,例如:

if (r2<128 * 128 * cuttoffCoef)
c[i][j][0] = c[i][j][1] = 0;

至于你应该期待什么:只要两个图像之间有共同的元素,你就会看到一个峰值。峰值越大,两个图像在该区域附近越相似。

一些评论和/或建议的更改:

1)卷积和相关不是尺度不变的操作。换句话说,图案图像的大小会对输出产生重大影响。

2)在相关之前标准化您的图像。

当您为前向 DFT channel 准备好图像数据时:
a[i][j][0] = (0.299*p1.Red + 0.587*p1.Green + 0.114*p1.Blue);
a[i][j][1] = 0.0;
/* ... */

你如何对图像进行灰度化是你的事(尽管我会选择 sqrt( r*r + b*b + g*g ) 之类的东西)。但是,我没有看到你做任何事情来规范化图像。

在这种情况下,“规范化”一词可以具有几种不同的含义。两种常见类型:
  • 标准化 0.0 和 1.0 之间的值范围
  • 标准化图像的“白度”

  • 3)通过边缘增强过滤器运行您的图案图像。我个人使用过 canny , sobel ,我想我和其他几个人搞砸了。我记得,canny 是“quick'n dirty”,sobel 更贵,但在进行相关时我得到了可比较的结果。见 chapter 24在线免费提供的“dsp 指南”一书。整本书值得你花时间,但如果你时间不够,那么至少第 24 章会有很大帮助。

    4) 在 [0, 255] 之间重新缩放输出图像;如果要实现阈值,请在此步骤之后执行,因为阈值步骤是有损的。

    我对这个的内存很模糊,但我记得(为清楚起见进行了编辑):
  • 您可以通过从整个功率谱
  • 中划分出最大功率谱值来在 [-1.0, 1.0] 之间缩放最终图像像素(重新缩放之前)
  • 最大功率谱值是功率谱中最中心的值(对应于最低频率)
  • 如果你把它从功率谱中分离出来,你最终会做两倍的工作;由于 FFT 是线性的,因此您可以将除法延迟到逆 DFT 传递到您重新缩放 [0..255] 之间的像素时。
  • 如果在重新调整大多数值后,您无法看到它们,您可以使用 ODE y' = y(1 - y) 的解决方案。 (一个例子是 sigmoid f(x) = 1 / (1 + exp(-c*x) ) ,对于一些缩放因子 c 可以提供更好的渐变)。这与提高您直观地解释结果的能力有关,而不是您可能用于以编程方式查找峰值的任何方法。

  • 编辑我在上面说 [0, 255]。我建议您重新调整到 [128, 255] 或其他一些灰色而不是黑色的下限。

    关于使用 FFT 互相关进行 C++ 模式匹配(图像),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31149187/

    26 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com