- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
这一切都在标题中,但在现已弃用的 Android Camera API 中,有两个方法:Camera.Parameters.getHorizontalViewAngle() 和 Camera.Parameters.getVerticalViewAngle()。
现在,对于当前的 Camera2 API,文档中似乎没有与这些等效的东西。我假设这是因为 FOV 角度比简单的水平和垂直值更复杂和细微差别,但我无法在网上找到任何有关如何使用较新的 Camera2 API 计算 Android 设备的总视野的信息.
最佳答案
基本公式是
FOV.x = 2 * atan(SENSOR_INFO_PHYSICAL_SIZE.x / (2 * LENS_FOCAL_LENGTH))
FOV.y = 2 * atan(SENSOR_INFO_PHYSICAL_SIZE.y / (2 * LENS_FOCAL_LENGTH))
这是一个 approximation假设一个理想的镜头等,但通常足够好。
这会计算整个传感器像素阵列的 FOV。
但是,给定输出的实际视野会更小;首先,传感器的读出区域通常小于全像素阵列,因此不要直接使用 PHYSICAL_SIZE,您需要先按像素阵列像素数与 Activity 阵列像素数 (SENSOR_INFO_ACTIVE_ARRAY_SIZE/SENSOR_INFO_PIXEL_ARRAY_SIZE) 的比率对其进行缩放.
然后,视野取决于您配置的输出的纵横比(16:9 FOV 将不同于 4:3 FOV),相对于 Activity 阵列的纵横比, 以及裁剪区域的纵横比(数字缩放),如果它小于整个 Activity 阵列。
每个输出缓冲区将是为相应的捕获请求进一步裁剪 cropRegion 以达到正确的输出纵横比的结果。 (http://source.android.com/devices/camera/camera3_crop_reprocess.html 有图表)。
假设我们有一个像素阵列为 (120,120) 的传感器,我们有一个有源阵列矩形 (10,10)-(110,110),因此宽度/高度为 100,100。
我们配置两个输出,输出A是(40,30),输出B是(50, 50)。让裁剪区域保持在最大值 (0,0)-(100,100)。
输出 A 和 B 的水平 FOV 将相同,因为最大面积裁剪将导致两个输出都使用完整的 Activity 阵列宽度:
output_physical_width = SENSOR_INFO_PHYSICAL_SIZE.x * ACTIVE_ARRAY.w / PIXEL_ARRAY.w
FOV_x = 2 * atan(output_physical_width / (2 * LENS_FOCAL_LENGTH))
但是,垂直 FOV 会有所不同 - 由于纵横比不匹配,输出 A 将仅使用 3/4 的垂直空间:
active_array_aspect = ACTIVE_ARRAY.w / ACTIVE_ARRAY.h
output_a_aspect = output_a.w / output_a.h
output_b_aspect = output_b.w / output_b.h
output_a_physical_height = SENSOR_INFO_PHYSICAL_SIZE.y * ACTIVE_ARRAY.h / PIXEL_ARRAY.h * output_a_aspect / active_array_aspect
output_b_physical_height = SENSOR_INFO_PHYSICAL_SIZE.y * ACTIVE_ARRAY.h / PIXEL_ARRAY.h * output_b_aspect / active_array_aspect
FOV_a_y = 2 * atan(output_a_physical_height / (2 * LENS_FOCAL_LENGTH))
FOV_b_y = 2 * atan(output_b_physical_height / (2 * LENS_FOCAL_LENGTH))
当输出纵横比 <= Activity 数组纵横比(信箱)时,上述方法有效;如果不是这样,则输出水平维度会减少,垂直维度会覆盖整个有源阵列(邮筒)。水平方向的比例因子是 active_array_aspect/output_aspect。
如果要计算放大 View 的 FOV,请用裁剪区域尺寸/纵横比替换 Activity 阵列尺寸/纵横比。
关于java - Camera.Parameters.getHorizontalViewAngle() 和 Camera.Parameters.getVerticalViewAngle() 的 Android Camera2 API 等效项是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/39965408/
我在 Android 中使用相机时遇到问题。 在 API 25 Nougat 7.1.1 SDK 上进行开发。最小目标 SDK 设置为 15。 每次调用时都会抛出错误: Camera camera =
在我尝试过的所有手机上,包括带有 API 2.3.7 和 4.0 的 Galaxy Nexus,在调用 takePicture 方法后表面 View 更改为拍摄的图像,即“图像查看”。 我已经在这些平
我正在尝试在 Flutter 中的相机预览上显示 CustomPaint 元素。现在,CustomPaint 元素显示在相机预览下方。我正在使用 Flutter camera plugin显示相机预览
我有一个自定义相机应用程序,它在 SurfaceView 上预览相机视频输出并尝试拍照,照片应该由“xzing”扫描仪 API 处理以解码图像中的任何条形码。 我的应用程序预览正确并且没有抛出任何错误
我已经实现了使用 Android MediaRecorder 在后台录制音频,如果录音正在进行并且用户打开了 native 摄像头来录制视频,它会提供 Camera Error "Can't Conn
我在浏览相机脚本时遇到了声明术语 new Camera camera; 我想知道这是做什么的。它是在创建一个实例吗?让我感到困惑的是脚本已经附加到 Inspector 中的相机对象。那么为什么需要创建
我使用了我的 Fabric 服务,并在大多数运行我的应用程序的设备上发现了这个错误。 错误是这样的: Fatal Exception: java.lang.NullPointerException A
private static final int SENSOR_ORIENTATION_DEFAULT_DEGREES = 90; private static final int SENSOR_OR
我正在开发一个基本的自定义相机应用这些是我的依赖 // CameraX core library dependency implementation "androidx.camera:camera-c
我正在为索尼相机制作一个跟焦应用程序。我的应用程序需要能够设置焦点标记并调用它们。有很多功能可以在 Sony Camera API 上进行自动对焦,但我希望能够手动将焦点设置为给定的绝对值。有没有办法
我已经浏览了 Nest 开发人员网站,但找不到与相机相关的任何内容。我可以找到很多关于恒温器和烟雾/一氧化碳警报器的重要信息,但没有关于相机的信息。 特别是,我正在寻找如何获取视频 URL、如何获取/
关闭。这个问题需要details or clarity .它目前不接受答案。 想改进这个问题吗? 通过 editing this post 添加细节并澄清问题. 关闭 8 年前。 Improve t
我使用 create-react-native-app (CRNA) 创建了一个 RN 项目。我想使用expo提供的Camera API。为此,我只是复制了此处的示例 https://docs.exp
我想让我的相机跟随移动实体的第一人称视角。我不相信 trackedEntity 将适用于此用例,因为我不想查看实体,但我想查看 从它。我还希望用户能够使用鼠标相对于移动实体转动相机(例如,从移动平面的
我有一个跟进问题 Android Camera Server Died and Camera ERROR 100 我的代码中出现了类似的错误。这个错误出现在我们随机运行许多应用程序的自动化测试中。很长
我正在尝试实现与 Facebook 或 Instagram 相同的功能: 即时预览相机拍摄的图像 此时,调用此函数时,我的拍摄已正确拍摄: takePicture = async function()
我想给 React native Camera 添加水印。每当我点击/拍摄图像时,应该保存带有水印的图像。 最佳答案 我用了react-native-image-marker它对我有用。 关于reac
虽然索尼向客户挑逗新相机型号(UMC-R10C、UMC-S3C)并提到 API 访问和 USB 连接(而不是 wifi),但索尼相机远程 API 目前只提到 wifi。有没有关于如何使用这些即将推出的
我正在尝试使用以下代码在我的 xamarin android 应用程序中使用相机功能。 Intent intent = new Intent(MediaStore.ActionImageCapture
我构建了一个人脸检测应用程序,我从 onPreviewFrame 获取帧,进行人脸检测,然后在 surfaceView 上方的 Canvas 上绘制一个圆圈。问题是当 Camera.StartPrev
我是一名优秀的程序员,十分优秀!