- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我想对我现有的 AR 应用做一些修改,我想 Split View并在里面添加 2 个 ARSCNView
这样用户就可以使用 VR Card Box 并获得不同的体验但是 Xcode 总是返回给我:
Session (0x102617d10): did fail with error: Error Domain=com.apple.arkit.error Code=102 "Required sensor failed."
所以,我假设我不能同时运行 2 个 ARSCNView
session ,或者我错了吗?
最佳答案
答案是:是的,这是可能的。
使用下面的代码来完成:
import UIKit
import SceneKit
import ARKit
class ViewController: UIViewController, ARSCNViewDelegate {
@IBOutlet weak var sceneView: ARSCNView!
@IBOutlet weak var sceneView2: ARSCNView!
override func viewDidLoad() {
super.viewDidLoad()
sceneView.delegate = self
sceneView.showsStatistics = true
let scene = SCNScene(named: "art.scnassets/ship.scn")!
sceneView.scene = scene
sceneView.isPlaying = true
// Setup for sceneView2
sceneView2.scene = scene
sceneView2.showsStatistics = sceneView.showsStatistics
// Now sceneView2 starts receiving updates
sceneView2.isPlaying = true
}
override func viewWillAppear(_ animated: Bool) {
super.viewWillAppear(animated)
let configuration = ARWorldTrackingConfiguration()
sceneView.session.run(configuration)
}
override func viewWillDisappear(_ animated: Bool) {
super.viewWillDisappear(animated)
sceneView.session.pause()
}
func renderer(_ renderer: SCNSceneRenderer, updateAtTime time: TimeInterval) {
DispatchQueue.main.async {
self.updateFrame()
}
}
func updateFrame() {
// Clone pointOfView for Second View
let pointOfView: SCNNode = (sceneView.pointOfView?.clone())!
// Determine Adjusted Position for Right Eye
let orientation: SCNQuaternion = pointOfView.orientation
let orientationQuaternion: GLKQuaternion = GLKQuaternionMake(orientation.x,
orientation.y,
orientation.z,
orientation.w)
let eyePos: GLKVector3 = GLKVector3Make(1.0, 0.0, 0.0)
let rotatedEyePos: GLKVector3 = GLKQuaternionRotateVector3(orientationQuaternion,
eyePos)
let rotatedEyePosSCNV: SCNVector3 = SCNVector3Make(rotatedEyePos.x,
rotatedEyePos.y,
rotatedEyePos.z)
let mag: Float = 0.064 // Interocular distance (in metres)
pointOfView.position.x += rotatedEyePosSCNV.x * mag
pointOfView.position.y += rotatedEyePosSCNV.y * mag
pointOfView.position.z += rotatedEyePosSCNV.z * mag
// Set PointOfView for SecondView
sceneView2.pointOfView = pointOfView
}
}
For more details look at this project on a GitHub.
关于swift - ARKit Stereo – 是否可以同时运行两个 ARSCNView?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53691179/
我想对我现有的 AR 应用做一些修改,我想 Split View并在里面添加 2 个 ARSCNView 这样用户就可以使用 VR Card Box 并获得不同的体验但是 Xcode 总是返回给我:
我想对我现有的 AR 应用做一些修改,我想 Split View并在里面添加 2 个 ARSCNView 这样用户就可以使用 VR Card Box 并获得不同的体验但是 Xcode 总是返回给我:
使用 Matlab 立体相机校准器时的默认坐标系是使 Z 远离相机增加(参见本页底部图像:http://www.mathworks.com/help/vision/gs/coordinate-syst
尝试在 OpenGL 上显示两个图像时遇到问题(使用 PFD_STEREO 启用立体)。当我尝试同时显示 2 张图像时,只有一张(最后一张)图像显示而另一张图像仅显示黑色(图像未显示)。 代码如下:
还是完全依赖于 Bumblebee(或任何其他 Point Grey Imaging 传感器)?我正在尝试链接 bumblebee 2 stereo rig 附带的立体处理 API 来处理一些离线图像
我目前正在开发一个适用于通过麦克风捕获的现场音乐的应用程序。但是,这使得测试变得非常困难,我在共享办公室工作等等。我目前正在通过从应用程序中加载外部 MP3 文件来对其进行测试,但这远非最佳。 我想做
我想知道是否可以将 Java 应用程序(或任何应用程序)转换为立体 3D (例如,使用红蓝眼镜)。 是否有任何工具或框架可以执行此操作? 最佳答案 解决此问题的最常见方法是使用 JOGL,它是 Ope
我想做类似于 this question 的事情,但用于 stereoCalibrate() 而不是 calibrateCamera()。也就是说,计算立体相机校准的重投影误差。 我的简化示例如下所示
我使用 opencv 为 2 个摄像头(左侧的低分辨率摄像头和右侧的高分辨率摄像头)成功校准了内部参数和外部参数。我从 2 组图像(棋盘图案 - 每个相机大约 20 张图像)进行立体校准。我现在有一个
在 Quadro 卡 X 驱动程序的 NVIDIA README 中,有这样的注释: Workstation overlays, stereo visuals, and the unified bac
我有两个立体图像,我想用它们来计算深度图。不幸的是,我不懂 C/C++,但我懂 python——所以当我找到 this tutorial 时,我很乐观。 不幸的是,教程似乎有些过时了。它不仅需要进行调
使用“立体声混音”获取系统音频很容易,但大多数现代驱动程序不再支持该功能。 Steam本地流媒体不知何故设法做到了,我可以在流媒体任意游戏时清楚地听到其他应用程序的音频输出。 Steam 是如何做到的
我有一个 32 位 *.wav 文件 44100Hz 采样。我使用 wave 和 python struct.unpack 将数据获取到数组。不过,我想将两个立体声 channel 中的每一个作为单独
我正在使用 Flutter 构建一个应用程序,它允许我录制音频然后稍后播放。我正在使用包 audio_recorder 0.4.0 来录制音频,并使用包 stereo 1.0.0 来播放音频。 当我使
在 OpenCV 立体中,如何检查给定的 3D 点 (x,y,z) 是否可以投影到左/右图像平面上?我已经校准了通过 stereoRectify 获得的相机参数。 更具体地说,我想将 projectP
我一直在使用 Azure SDK 并根据下面的引用页开发文本转语音应用 https://learn.microsoft.com/en-us/dotnet/api/microsoft.cognitive
我正在使用 node-microphone 从 nodejs 录制音频(这只是一个用于 arecord 的 javascript 接口(interface)),并且想要将流 block 存储在 Aud
我一直在使用 Azure SDK 并根据下面的引用页开发文本转语音应用 https://learn.microsoft.com/en-us/dotnet/api/microsoft.cognitive
我尝试使用一个 RemoteIO AudioUnit(这是唯一的 AudioUnit)的两个 AudioStreamBasicDescription 将音频输入设置为单声道并输出为立体声。 然后,我为
我希望将 MATLAB stereoParameters 结构转换为内部矩阵和外部矩阵,以便在 OpenCV 的 stereoRectify 中使用。 如果我明白http://docs.opencv.
我是一名优秀的程序员,十分优秀!