- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
在过去的几个月里,我一直在研究为各种软件音乐合成器开发基于 Kinect 的多点触控界面。
我提出的总体策略是以编程方式或(如果可能)算法方式创建对象来表示软合成器的各种控制。这些应该有;
最佳答案
哇这里有很多东西。我在 Microsoft 期间研究了很多 NUI 的东西,所以让我们看看我们能做些什么......
但首先,我需要消除这种讨厌的情绪:您说“基于 Kinect 的多点触控”。那是错误的。 Kinect 本质上与触摸无关(这就是为什么您有“选择控件”挑战的原因)。触摸、 body 跟踪和鼠标所需的 UI 考虑类型完全不同。例如,在触摸 UI 中,您必须非常小心地根据屏幕尺寸/分辨率/DPI 调整大小……无论屏幕如何,手指的物理尺寸始终相同,人们的物理精度也相同,因此您想要您的按钮和类似控件的物理尺寸始终大致相同。研究发现 3/4 英寸是触摸屏按钮的最佳位置。这对 Kinect 来说并不是什么大问题,因为你没有直接触摸任何东西——准确度不是由手指大小决定的,而是由传感器准确度和用户精确控制挑剔和滞后的虚拟光标的能力决定的。
如果您花时间玩 Kinect 游戏,很快就会发现有 4 种交互范式。
1) 基于姿势的命令。用户敲击并保持姿势以调用某些应用程序范围或命令(通常是调出菜单)
2) 悬停按钮。用户将虚拟光标移动到按钮上并保持一定时间以选择按钮
3) 基于滑动的导航和选择。用户向一个方向挥手滚动和列表,向另一个方向从列表中选择
4) 语音命令。用户只需说出一个命令。
业余爱好者还尝试过其他类似鼠标的想法(尚未在实际游戏中看到这些想法),但坦率地说,它们很糟糕:1)用一只手控制光标,另一只手“单击”光标所在的位置或 2)使用 z - 手的坐标来确定是否“点击”
我不清楚您是否询问如何使某些现有的鼠标小部件与 Kinect 配合使用。如果是这样,网络上有一些项目会向您展示如何使用 Kinect 输入控制鼠标,但这很蹩脚。这听起来可能很酷,但您实际上根本没有利用设备最擅长的功能。
如果我正在构建一个音乐合成器,我会专注于方法#3 - 滑动。类似舞蹈中心的东西。屏幕左侧显示 MIDI Controller 列表,并带有一些小的可视化状态指示。让用户用左手滑动以滚动浏览并从此列表中选择一个 Controller 。屏幕右侧显示您如何在用户 body 前方某个平面内跟踪用户的右手。现在,您可以让他们同时使用双手,立即提供有关如何解释每只手的视觉反馈,而不要求它们非常精确。
ps...我还想对 Josh Blake 即将出版的 NUI 书大喊大叫。这是好东西。如果你真的想掌握这个领域,去订购一份:) http://www.manning.com/blake/
关于kinect - NUI/触摸界面的一般注意事项,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/7463002/
我在这里有点困惑。 Kinect 如何计算深度 : 我的理解是 IR 投影仪抛出一个图案,该图案被 IR 摄像机反射回来并读取。 现在红外摄像机知道特定深度的模式。利用传入模式和已知模式之间的差异来计
我希望使用 Kinect ToF 相机进行编程,但是我不确定这样做的硬件和软件要求。我遇到了一些涵盖这个主题的文章/书籍,但似乎有一些不一致的地方让我有些困惑。 问题 我需要购买什么 Kinect 产
我正在探索 kinect 的开发,希望能够识别手指而不是整只手。 kinect 官方 SDK 的骨骼 API 只有手关节 - 没有手指跟踪的规定。我还了解到,最近微软在新的 SDK 中包含了抓握识别
我正在探索 kinect 的开发,希望能够识别手指而不是整只手。 kinect 官方 SDK 的骨骼 API 只有手关节 - 没有手指跟踪的规定。我还了解到,最近微软在新的 SDK 中包含了抓握识别
这个问题与 Kaggle/CHALEARN 手势识别挑战有关。 您将获得大量匹配 RGB 和深度视频的训练集,这些视频是从 Kinect 录制的。我想在这些视频上使用 Kinect SDK 的骨骼跟踪
我希望我的几个开发人员立即开始使用 Kinect SDK,而且时间紧迫。因为他们不在美国,所以我需要花太多时间为他们购买 Kinect 以及在 PC 上使用它所需的电缆。 有没有一种方法可以让他们在没
我正在尝试使用 Xbox 360 的 Kinect 开发一个有趣的人脸识别应用程序。我想知道应该使用哪个 SDK 和 Visual Studio 版本才能最好地访问 Kinect。 最佳答案 Is K
我正在尝试创建一个应用程序来放大和缩小图像并通过 Kinect 旋转图像。到目前为止,它适用于任何一种情况。我想要的是,如果我旋转了图像,则在缩放时会保存新值,因此我会放大已旋转 X 度的图像。我现在
很难说出这里问的是什么。这个问题模棱两可、含糊不清、不完整、过于宽泛或言辞激烈,无法以目前的形式合理回答。如需帮助澄清此问题以便可以重新打开,visit the help center . 9年前关闭
我正在研究一种扩展方法,将一个骨架移动到 kinect 字段 os View 中的所需位置。 我的代码接收要移动的骨骼和命运位置,我计算接收到的骨骼臀部中心与命运位置之间的距离以找到how much
给定从 Kinect 深度图获得的两个连续 3D 点云 1 和 2(不是整个云,比如说使用 OpenCV 的 GoodFeaturesToMatch 从云中选择的 100 个点),我想从 1 到 2
任何人都可以使用 Raspberry Pi 从 Kinect 获取相机数据吗? 我们想制作一个无线 Kinect 使用以太网或 WiFi 连接它。否则,请告诉我您是否有可行的替代方案。 最佳答案 要回
例如,我站在 Kinect 前面。 Kinect 可以识别关节,并将它们作为数据结构公开。到目前为止我已经很清楚了。 那么,我们能否将高度定义为头关节 - ((LeftAnkle + RightAnk
我尝试将从 Kinect 接收的图像保存为 png。我从包装中取出了一个 kinect 样本,它在两个平面上显示了深度和颜色图片,我对它们进行了修改。我尝试了不同的方法,例如直接保存 color32
kinect 真的很新。我正在尝试阅读我找到的 Material 。我找到了技术规范和 .net API 文档,但可以弄清楚我正在尝试做的事情是否可行: 我可以指示 kinect 物理移动相机吗? (
据说 Microsoft SDK 可以访问 Kinect 的内在参数,但有人知道它返回的深度图像是否实际上是不失真的吗?我找不到任何相关内容。 如果我脱离主题,请告诉我,尽管我认为这是一个隐式编程问题
由于传感器之间存在红外干扰,因此使用多个 Kinect v1 传感器非常困难。 根据我读到的内容 this gamastura article ,微软通过 Kinect v2 传感器测量深度的飞行时间
我只是对 Kinect v2 的主动红外图像和深度图像之间的差异理解感到困惑。谁能告诉我主动红外图像与深度图像相比有什么特殊功能? 最佳答案 在深度图像中,像素的值与通过飞行时间测量的距相机的距离相关
我可以从 Kinect 获取深度帧,然后修改帧中的数据。 现在我想使用修改后的深度帧来获取骨架数据。 我该怎么做? 最佳答案 好吧,我发现使用 microsoft kinect sdks 无法做到这一
This programming guide暗示这是可能的,所以我想知道到底是什么。 但是,现在它不起作用。 主机操作系统为 Vista 64 位,VMWare Workstation 6.5.3 运
我是一名优秀的程序员,十分优秀!