gpt4 book ai didi

java - 如何从图像中检测机器人方向?

转载 作者:塔克拉玛干 更新时间:2023-11-03 05:24:36 28 4
gpt4 key购买 nike

我正在开发可以在 Jade 米裁剪中运行并由罗盘传感器引导的机器人,但我想将相机用作机器人的眼睛,并使用图像处理来检测运动的误差角度。

这是图像示例。

处理过的图片 processed image原始图片 raw image分割图像 segmented image

我使用以下步骤

  1. 第 1 步:我目前使用的技术是将颜色值转换为从 this code 修改而来的 HSV

  2. 第 2 步:因此它将检测选定的颜色,即棕色或污垢颜色,然后我收集两个阵列中每个图像行的最左边和右边的棕色或选定颜色(一个红点)。

  3. 第 3 步:我将 2 线性回归线绘制为蓝点,并将交点计算为粉点
  4. 第 4 步:绘制绿线以将粉红色点与其他图像进行比较。我还不确定如何处理这条绿线
  5. 问题是 Jade 米叶之间也存在污垢或棕色,所以我让我的代码错过了计算

问题是如何过滤掉 Jade 米叶之间或不在 Jade 米路径中的其他区域的棕色像素?我应该研究或应用哪种算法或方法来解决这个问题?

EDIT1:使用 Spektre 的答案,看起来更好

这是我用JAVA+Boofcv应用后的结果

  • 第 1 步:阈值化或颜色分割 Thresholding or Color Segmentation

  • 第 2 步:模糊(使用高斯和中值滤波器) Blured

  • 第 3 步:绘制线性回归 Plot Linear Regression

More Information

Full Code Here

LinearRegression Class

10 example images with the same process

最佳答案

对于您的源图像

source

我会:

  1. 制作棕色面具

    只是阈值 H,S并忽略 V ,你已经有了这个。我使用整数 255而不是颜色(蓝色)用于后面的计算。

    mask

  2. 模糊蒙版

    这将删除错误选择的部分的小簇。在此之后,您应该再次对掩码进行阈值处理,因为掩码值会比 255 小一点。除非你有完全选择的区域。面积越大,值越大(接近 255 )。我以>=150为阈值

  3. 水平线扫描蒙版

  4. 为每条线找到所有选定像素的重心

    再次进行模糊和阈值处理后,使用过的蒙版位于 Aqua 中。所以计算平均点 x每行中所有屏蔽像素的坐标。此点用白色标记。

  5. 通过所有重心的回归线

    我用我的approximation search为此,您可以使用任何您想要的回归。回归线标有红色

    我使用线方程 x=x0+y*dx其中 y=<0,pic1.ys> .并按时间间隔搜索解决方案:

    x0=<-pic1.xs,+2*pic1.xs>
    dx=<-10,+10>

在哪里pic1.xs,pic1.ys是图像分辨率。因此,正如您所看到的,我没有涵盖所有角度范围,但我认为这无论如何都不适用于那些边缘情况(接近水平方向)。对于这种情况,您应该在垂直线上执行此操作并使用 x=y0+x*dy相反。

final result

这里是 C++ 来源,我是用它来做的:

    picture pic0,pic1;
// pic0 - source img
// pic1 - output img
int x,y,h,s,v,px,pn,*p;
color c;
// copy source image to output
pic1=pic0;
pic1.save("cornbot0.png");
// create brown stuff mask
for (y=0;y<pic1.ys;y++) // scan all H lines
for (x=0;x<pic1.xs;x++) // scan actual H line
{
c=pic1.p[y][x]; // get pixel color
rgb2hsv(c); // in HSV
h=WORD(c.db[picture::_h]);
s=WORD(c.db[picture::_s]);
v=WORD(c.db[picture::_v]);
// Treshold brownish stuff
if ((abs(h- 20)<10)&&(abs(s-200)<50)) c.dd=255; else c.dd=0;
pic1.p[y][x]=c;
}
pic1.save("cornbot1.png");
pic1.smooth(10); // blur a bit to remove small clusters as marked
pic1.save("cornbot2.png");

// compute centers of gravity
p=new int[pic1.ys]; // make space for points
for (y=0;y<pic1.ys;y++) // scan all H lines
{
px=0; pn=0; // init center of gravity (avg point) variables
for (x=0;x<pic1.xs;x++) // scan actual H line
if (pic1.p[y][x].dd>=150) // use marked points only
{
px+=x; pn++; // add it to avg point
pic1.p[y][x].dd=0x00004080; // mark used points (after smooth) with Aqua
}
if (pn) // finish avg point computation
{
px/=pn;
pic1.p[y][px].dd=0x00FFFFFF;// mark it by White
p[y]=px; // store result for line regression
} else p[y]=-1; // uncomputed value
}

// regress line
approx x0,dx;
double ee;
for (x0.init(-pic1.xs,pic1.xs<<1,100,3,&ee); !x0.done; x0.step()) // search x0
for (dx.init(-10.0 ,+10.0 ,1.0,3,&ee); !dx.done; dx.step()) // search dx
for (ee=0.0,y=0;y<pic1.ys;y++) // compute actua solution distance to dataset
if (p[y]!=-1) // ignore uncomputed values (no brown stuff)
ee+=fabs(double(p[y])-x0.a-(double(y)*dx.a));
// render regressed line with Red
for (y=0;y<pic1.ys;y++)
{
x=double(x0.aa+(double(y)*dx.aa));
if ((x>=0)&&(x<pic1.xs))
pic1.p[y][x].dd=0x00FF0000;
}
pic1.save("cornbot2.png");
delete[] p;

我用自己的picture图像类,所以一些成员是:

  • xs,ys以像素为单位的图像大小
  • p[y][x].dd像素位于 (x,y)定位为32位整数类型
  • p[y][x].dw[2]像素位于 (x,y) 2D 字段的位置为 2x16 位整数类型
  • p[y][x].db[4]像素位于 (x,y)定位为4x8位整数类型,方便 channel 访问
  • clear(color) - 清除整个图像
  • resize(xs,ys) - 将图像调整为新的分辨率
  • bmp - VCL 封装了 GDI 位图与 Canvas 访问
  • smooth(n) - 快速模糊图像 n

您可以通过基于区域和位置的分割(移除小簇)进一步改进这一点。您也可以忽略邻居之间的平均点中太大的峰值。您还可以检测天空并忽略存在天空的整个区域。

[edit1] 平滑

这是我平滑的样子:

void picture::smooth(int n)
{
color *q0,*q1;
int x,y,i,c0[4],c1[4],c2[4];
bool _signed;
if ((xs<2)||(ys<2)) return;
for (;n>0;n--)
{
#define loop_beg for (y=0;y<ys-1;y++){ q0=p[y]; q1=p[y+1]; for (x=0;x<xs-1;x++) { dec_color(c0,q0[x],pf); dec_color(c1,q0[x+1],pf); dec_color(c2,q1[x],pf);
#define loop_end enc_color(c0,q0[x ],pf); }}
if (pf==_pf_rgba) loop_beg for (i=0;i<4;i++) { c0[i]=(c0[i]+c0[i]+c1[i]+c2[i])>>2; clamp_u8(c0[i]); } loop_end
if (pf==_pf_s ) loop_beg { c0[0]=(c0[0]+c0[0]+c1[0]+c2[0])/ 4; clamp_s32(c0[0]); } loop_end
if (pf==_pf_u ) loop_beg { c0[0]=(c0[0]+c0[0]+c1[0]+c2[0])>>2; clamp_u32(c0[0]); } loop_end
if (pf==_pf_ss ) loop_beg for (i=0;i<2;i++) { c0[i]=(c0[i]+c0[i]+c1[i]+c2[i])/ 4; clamp_s16(c0[i]); } loop_end
if (pf==_pf_uu ) loop_beg for (i=0;i<2;i++) { c0[i]=(c0[i]+c0[i]+c1[i]+c2[i])>>2; clamp_u16(c0[i]); } loop_end
#undef loop_beg
#define loop_beg for (y=ys-1;y>0;y--){ q0=p[y]; q1=p[y-1]; for (x=xs-1;x>0;x--) { dec_color(c0,q0[x],pf); dec_color(c1,q0[x-1],pf); dec_color(c2,q1[x],pf);
if (pf==_pf_rgba) loop_beg for (i=0;i<4;i++) { c0[i]=(c0[i]+c0[i]+c1[i]+c2[i])>>2; clamp_u8(c0[i]); } loop_end
if (pf==_pf_s ) loop_beg { c0[0]=(c0[0]+c0[0]+c1[0]+c2[0])/ 4; clamp_s32(c0[0]); } loop_end
if (pf==_pf_u ) loop_beg { c0[0]=(c0[0]+c0[0]+c1[0]+c2[0])>>2; clamp_u32(c0[0]); } loop_end
if (pf==_pf_ss ) loop_beg for (i=0;i<2;i++) { c0[i]=(c0[i]+c0[i]+c1[i]+c2[i])/ 4; clamp_s16(c0[i]); } loop_end
if (pf==_pf_uu ) loop_beg for (i=0;i<2;i++) { c0[i]=(c0[i]+c0[i]+c1[i]+c2[i])>>2; clamp_u16(c0[i]); } loop_end
#undef loop_beg
#undef loop_end
}
}

它只是对3个像素进行加权平均

(x,y)=(2*(x,y)+(x-1,y)+(x,y-1))/4

然后做同样的事情

(x,y)=(2*(x,y)+(x+1,y)+(x,y+1))/4

避免图像偏移。然后整个事情循环了n次,仅此而已。您可以忽略 clamp 和 pixel-format 选项,在这种情况下它是 pf==_pf_rgba但无论如何它只使用单 channel ... dec_color,enc_color只需将颜色 channel 解包、打包到变量数组中或从变量数组中打包,以避免 8 位 channel 上的截断和溢出问题,并更好地格式化/简化代码(对于不同的像素格式支持)

顺便说一句,平滑基础与卷积相同

0.00 0.25 0.00
0.25 0.50 0.00
0.00 0.00 0.00

0.00 0.00 0.00
0.00 0.50 0.25
0.00 0.25 0.00

关于java - 如何从图像中检测机器人方向?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37155580/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com