gpt4 book ai didi

android - 这段代码在这个 OpenCV Android 示例应用程序中做了什么?

转载 作者:行者123 更新时间:2023-12-02 17:46:28 25 4
gpt4 key购买 nike

这里是 the ColorBlobDetectionActivity class颜色 Blob 检测示例的代码,我难以理解的特定代码块是 onTouch 中的第 114 行到第 135 行在这个类中实现的方法。

onTouch方法被调用,即当用户触摸一个彩色 Blob 时,int rows= mRgba.rows()int cols = mRgba.cols()是计算出来的。由于mRgbaMatonCameraFrame() 返回, 这意味着它代表一个相机帧。所以我认为rowscols现在表示沿 x 轴的像素数,以及沿帧的 y 轴的像素数。

由于一帧是相机看到的区域(在这个应用程序中是设备的全屏),所以rowscols分别表示屏幕x轴和y轴的像素数。

接下来的两个语句是:

int xOffset = (mOpenCvCameraView.getWidth() - cols) / 2;
int yOffset = (mOpenCvCameraView.getHeight() - rows) / 2;

问题是:
  • 究竟是做什么的xOffsetyOffset代表?
  • mOpenCvCameraViewCameraBridgeViewBase 的一个实例, 哪一个
    根据documentation是一个基础类,负责
    实现Camera和OpenCV的交互。这
    documentationgetWidth()getHeight()沉默,但是
    我认为它也是相机框架的宽度和高度(在
    像素?),所以它应该与 rows 相同和 cols .就是它
    正确的?
  • 你能解释一下他们用来计算的公式吗xOffsetyOffset (在上述两个statemnets)?
  • 最佳答案

    交付的框架和表面尺寸不一定相同。 event.getX 的最大值等于表面宽度。

    我还没有看到程序运行,但似乎偏移量决定了触摸矩形的大小。 rect 用于平均颜色,而不是简单地显示单个像素的数据。

    关于android - 这段代码在这个 OpenCV Android 示例应用程序中做了什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34107193/

    25 4 0
    Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
    广告合作:1813099741@qq.com 6ren.com