- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我不知道我是否可以问这个问题,但我真的不知道如何在 Android 仿真设备上使用 ARCore。根据官方指南,我应该在像素/像素 2 设备上使用 API 8.1,以便运行任何使用 ARCore 的应用程序。遗憾的是,这些模拟器不支持 Play Store,没有 Play Store,我无法在设备上安装 ARCore。
内置 Play 商店附带的设备镜像无法运行 ARCore。我真的很困惑我应该如何以这种方式为 ARCore 测试任何东西。我需要它来为大学类(class)开发应用程序,我需要熟悉增强现实开发,但由于这个问题我什至无法开始。
最佳答案
更新时间:2022 年 10 月 20 日。
要使用 ARCore 模拟器,首先,您必须创建一个支持 AR 的虚拟设备。我正在运行 Android Studio Dolphin | macOS Monterey 12.6 上的 2021.3.1。
我创建了 Pixel 6 Pro 虚拟设备:
ARCore 的 targetSdkVersion
已设置为 Android API 级别 33
。
Set up Android Debug Bridge .我为 Mac 设置了 adb
。
下载Google_Play_Services_for_AR_1.34.0_x86_for_emulator.apk来自 GitHub 存储库。
运行您的 AVD。
在 Bash 终端中键入以下命令(确保端口为 5554):
adb devices
结果:
// emulator-5554 device
转到 Google_Play_Services_for_AR_1.34.0_x86_for_emulator.apk
所在的文件夹。例如:
cd ~/Desktop
要安装 Emulator,请在虚拟设备运行时在终端中键入以下行:
adb install -r Google_Play_Services_for_AR_1.34.0_x86_for_emulator.apk
对您要使用的其他 AVD 重复前面的步骤。
高兴!
附言
请注意:Android Emulator
不支持以下 ARCore API:Depth API、Geospatial API 或 Augmented Faces API。那是因为Emulator没有对应的传感器。启用这些功能中的任何一个时,模拟器图片都无法正确呈现:屏幕将完全变黑,但绘制在模拟器图片顶部的 UI 元素仍会呈现。
关于bash - 无法为 Android Studio 安装 ARCore 模拟器,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49818161/
我想使用 ARCore 开发应用。我有几个问题: 是否需要安装 arcore-preview.apk 才能运行此 ARCore 应用程序? 为什么 arcore-preview.apk 出现在我设备的
如何在android studio中获取使用arcore SDK渲染的3D物体的点击事件?我的要求是单击该 3D 对象并显示弹出对话框。 最佳答案 这与 ARCore 无关。您使用的游戏引擎/框架实际
ARCore什么时候从预览版变成Version 1.0,大概什么时候?如果某处有信息,请告诉我。 最佳答案 2018年2月23日发布1.0.0版本。更多信息: https://developers.g
TL; 博士; 谷歌新AR animals看起来好像它们是网络上的 AR(如 AR.js 或 8thWall),但实际上是原生的 ARCore应用程序。技巧是浏览器中的链接(实际上是一个带有非常模糊的
当我在 Android Studio 中构建“hellosceneform”示例时,我收到来自 Gradle 的“Error converting asset”错误。谁能告诉我如何构建示例?谢谢! 最
我探索了 Google 提供的 ARCore 演示,它允许在 Android 和 iOS 设备之间传输 AR 对象。 如何在 iOS 上实现这样的事情。 我尝试过 Google 的 ARCore 库和
我正在尝试使用 ARcore 构建应用。一切正常,但我无法在 Android Native 应用程序中实现某些要求,因此我们为此选择了 Unity。我们已经在 Unity library Projec
Arcore 未能从目标图像中获取足够的关键点。图片是黑色背景上的文字....这个问题有解决方案吗? 最佳答案 我设法通过将图像的大小增加到至少 300x300 像素来解决这个问题,在 this ar
我有一个问题,最近在研究Google ARCore,我想实现检测垂直平面,并且像水平面一样,也可以渲染一个平面,我觉得ARCore也有垂直检测,但是如何显示出来并使用? 最佳答案 目前在 ARCore
似乎 HitResult 只为我们提供了与表面(平面)或点云的交集。如何通过单击在空气中间获得一个点,从而使物体漂浮在空中? 最佳答案 这真的取决于你所说的“在空中”是什么意思。我看到了两种可能性:
根据 this question ARCore 以米为单位工作。但是,由于无法使用单个摄像头来猜测所查看内容的大小——这是单目 SLAM 的一个已知现象,它也会导致尺度漂移,而 TANGO 设备通过使
我使用 ArCore 库开发了一个 Android 应用程序。我需要做两点,在它们之间画一条线,并在每条线附近设置一个文本标签。 文本标签需要面向相机旋转,并沿线定位。 1) 在两点之间添加一条线:
我想访问我在我的应用程序中记录的跟踪数据和自定义数据。 有人可以提供不同数据轨道保存在 mp4 中的格式吗? 使用这个例子https://github.com/google-ar/arcore-and
我试图将一个物体放在脸上。但是不明白如何设置对象的深度。 就像我在脸上添加像眼镜框这样的 3d 对象时。 它不显示在 correct depth . 最佳答案 当您使用 Augmented Faces
我正在将Flutter用于AR应用程序。这是创建球体的代码的一部分: void _addSphere(ArCoreController controller) { final materia
我在 Android Studio 中使用 ARCore。我的应用程序将提供 X , Y , Z坐标。我想要在确定的位置渲染 3D 图像。 我怎样才能做到这一点? 当检测到平面并点击它时,我是否能够渲
我想在检测到图像时在相框中播放视频,有人使用 ARCore 这样做过吗?将会有很大的帮助 谢谢 最佳答案 我认为您的意思是您希望在检测到图像时将视频添加为 ARCore 中的可渲染内容。 实际上(在撰
我正在寻找一种方法来查找 ARCore sceneform SDK 中一个节点与其他节点的距离。我研究了 overlapTestAll() 和 overlapTest() ,它们只返回彼此冲突的列表节
我是 AR 的新手。我想知道是否有一种方法可以使用 ARCore for android 将保存在手机上的图片显示到表面上。就像我能够将 Sceneform 示例与预编码图像一起使用,但现在我想将图片
是否有类似于 ARKit 的 WorldAlignment for ARCore 的选项来从相机更改为重力和航向?或者我是否需要相应地更改每个对象的位置? https://developer.appl
我是一名优秀的程序员,十分优秀!