- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
ARCore 在兼容手机中使用哪些传感器:单摄像头、双摄像头、IMU 等?
此外,如果传感器无法通过切换到其自身精度较低的版本而无法使用,ARCore 的动态是否足以继续工作?
最佳答案
更新日期:2022 年 5 月 10 日。
Google 的 ARCore 以及 Apple 的 ARKit 使用一组类似的传感器来跟踪现实世界的环境。 ARCore 可以使用单个 RGB 摄像头和 IMU,IMU 是加速度计、磁力计和陀螺仪的组合。您的手机以 60 fps 运行世界跟踪,而惯性测量单元以 1000 Hz 运行。此外,ARCore 中还可以使用一种传感器——用于场景重建的 iToF 相机(苹果的名称是 LiDAR)。 ARCore 1.25 支持Raw Depth API and Full Depth API .
阅读 Google 关于基于相机 + IMU 构建的 COM 方法的说法:
Concurrent Odometry and Mapping – An electronic device tracks its motion in an environment while building a three-dimensional visual representation of the environment that is used for fixing a drift in the tracked motion.
这是 Google US15595617 专利:System and method for concurrent odometry and mapping .
我们都知道Android设备最大的问题是校准。 iOS 设备不存在此问题(因为 Apple 控制自己的硬件和软件)。低质量的校准会导致 3D 跟踪错误,因此所有虚拟 3D 对象可能会“漂浮”在跟踪不良的场景中。 如果您使用没有 iToF 传感器的手机,则没有神奇的按钮可以防止不良跟踪(并且您无法切换到不太准确的跟踪版本)。在这种情况下,唯一的解决方案是从头开始重新跟踪场景。但是,当您的设备配备 ToF 摄像头时,跟踪质量会更高。
以下是获得良好跟踪结果的四个主要规则(如果您没有 ToF 摄像头):
跟踪场景不要太快,也不要太慢
追踪 appropriate surfaces和对象
跟踪时使用光线充足的环境
不跟踪折射物体的反射
水平面比垂直面更可靠
ARCore 最大的问题之一(这也是 ARKit 问题)是能源影响。我们知道帧速率越高,跟踪结果就越好。但 30 fps 时的能量影响很高,而 60 fps 时则非常高。这种能源影响将很快耗尽智能手机的电池(由于 CPU/GPU 的巨大负担)。因此,想象一下您为 ARCore 使用 2 个摄像头 – 您的手机必须以 60 fps 并行处理 2 个图像序列,并处理和存储特征点和 AR anchor ,同时手机必须同时渲染动画 3D 图形具有 60 fps 的高分辨率纹理。这对于您的 CPU/GPU 来说太多了。在这种情况下,电池将在 30 分钟内耗尽,并且会像锅炉一样热))。看来用户不喜欢它,因为这不是很好的 AR 体验。
关于augmented-reality - ARCore 使用哪些传感器?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54356589/
我想使用 ARCore 开发应用。我有几个问题: 是否需要安装 arcore-preview.apk 才能运行此 ARCore 应用程序? 为什么 arcore-preview.apk 出现在我设备的
如何在android studio中获取使用arcore SDK渲染的3D物体的点击事件?我的要求是单击该 3D 对象并显示弹出对话框。 最佳答案 这与 ARCore 无关。您使用的游戏引擎/框架实际
ARCore什么时候从预览版变成Version 1.0,大概什么时候?如果某处有信息,请告诉我。 最佳答案 2018年2月23日发布1.0.0版本。更多信息: https://developers.g
TL; 博士; 谷歌新AR animals看起来好像它们是网络上的 AR(如 AR.js 或 8thWall),但实际上是原生的 ARCore应用程序。技巧是浏览器中的链接(实际上是一个带有非常模糊的
当我在 Android Studio 中构建“hellosceneform”示例时,我收到来自 Gradle 的“Error converting asset”错误。谁能告诉我如何构建示例?谢谢! 最
我探索了 Google 提供的 ARCore 演示,它允许在 Android 和 iOS 设备之间传输 AR 对象。 如何在 iOS 上实现这样的事情。 我尝试过 Google 的 ARCore 库和
我正在尝试使用 ARcore 构建应用。一切正常,但我无法在 Android Native 应用程序中实现某些要求,因此我们为此选择了 Unity。我们已经在 Unity library Projec
Arcore 未能从目标图像中获取足够的关键点。图片是黑色背景上的文字....这个问题有解决方案吗? 最佳答案 我设法通过将图像的大小增加到至少 300x300 像素来解决这个问题,在 this ar
我有一个问题,最近在研究Google ARCore,我想实现检测垂直平面,并且像水平面一样,也可以渲染一个平面,我觉得ARCore也有垂直检测,但是如何显示出来并使用? 最佳答案 目前在 ARCore
似乎 HitResult 只为我们提供了与表面(平面)或点云的交集。如何通过单击在空气中间获得一个点,从而使物体漂浮在空中? 最佳答案 这真的取决于你所说的“在空中”是什么意思。我看到了两种可能性:
根据 this question ARCore 以米为单位工作。但是,由于无法使用单个摄像头来猜测所查看内容的大小——这是单目 SLAM 的一个已知现象,它也会导致尺度漂移,而 TANGO 设备通过使
我使用 ArCore 库开发了一个 Android 应用程序。我需要做两点,在它们之间画一条线,并在每条线附近设置一个文本标签。 文本标签需要面向相机旋转,并沿线定位。 1) 在两点之间添加一条线:
我想访问我在我的应用程序中记录的跟踪数据和自定义数据。 有人可以提供不同数据轨道保存在 mp4 中的格式吗? 使用这个例子https://github.com/google-ar/arcore-and
我试图将一个物体放在脸上。但是不明白如何设置对象的深度。 就像我在脸上添加像眼镜框这样的 3d 对象时。 它不显示在 correct depth . 最佳答案 当您使用 Augmented Faces
我正在将Flutter用于AR应用程序。这是创建球体的代码的一部分: void _addSphere(ArCoreController controller) { final materia
我在 Android Studio 中使用 ARCore。我的应用程序将提供 X , Y , Z坐标。我想要在确定的位置渲染 3D 图像。 我怎样才能做到这一点? 当检测到平面并点击它时,我是否能够渲
我想在检测到图像时在相框中播放视频,有人使用 ARCore 这样做过吗?将会有很大的帮助 谢谢 最佳答案 我认为您的意思是您希望在检测到图像时将视频添加为 ARCore 中的可渲染内容。 实际上(在撰
我正在寻找一种方法来查找 ARCore sceneform SDK 中一个节点与其他节点的距离。我研究了 overlapTestAll() 和 overlapTest() ,它们只返回彼此冲突的列表节
我是 AR 的新手。我想知道是否有一种方法可以使用 ARCore for android 将保存在手机上的图片显示到表面上。就像我能够将 Sceneform 示例与预编码图像一起使用,但现在我想将图片
是否有类似于 ARKit 的 WorldAlignment for ARCore 的选项来从相机更改为重力和航向?或者我是否需要相应地更改每个对象的位置? https://developer.appl
我是一名优秀的程序员,十分优秀!