- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在探索 kinect 的开发,希望能够识别手指而不是整只手。 kinect 官方 SDK 的骨骼 API 只有手关节 - 没有手指跟踪的规定。我还了解到,最近微软在新的 SDK 中包含了抓握识别 API,并且可能会在未来的版本中包含手指跟踪。
我的问题是鉴于当前资源,我该如何进行手指追踪?我们有相同的外部库吗?考虑到 UX 指南不鼓励此类手势,使用 kinect 实际实现手指跟踪是否可行。
谢谢。
最佳答案
how do i go about to do finger tracking? Do we have external libraries for the same?
有几个项目展示了 Kinect 执行手指跟踪的能力。一些提供某种手指跟踪 API 的第 3 方库也存在。
这是一个非常有趣的代码,我通过简单的网络搜索找到了它:
如果您想使用官方 SDK 或其他 SDK 之一是另一个问题。没有什么可以阻止官方 SDK 执行手部跟踪,但没有内置任何内容来执行此类操作。
Will it be feasible to actually implement finger tracking using kinect, given the fact the UX guidelines discourage such gestures.
如果您所说的“可行”是指可能 - 是的。没有什么能阻止您使用官方 SDK 实现自己的手指跟踪机制。
另一方面,如果您指的是跟踪手指与总体 body 运动的 UX 实用性,那是留给您的应用程序设计的事情。为了手指跟踪而进行手指跟踪并不能带来良好的无控制交互体验。 Kinect for Windows 1.7 Human Interface Guidelines 的“距离相关交互”部分很好地说明了用户与屏幕的距离如何影响与其交互的最佳方式。请注意,我上面链接的示例中的用户非常靠近屏幕。
您的应用程序要做什么;用户如何接近您的应用程序(即在大街上、在实验室中、学习或不学习、站立/坐着等);距离;用户年龄和能力(即 child 和老人通常不太灵巧,残疾人也是如此)。如果您的应用程序应该完全支持手指跟踪,那么所有这些(还有......更多)都会出现。
关于kinect - Kinect 中的手指追踪,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15784343/
我在这里有点困惑。 Kinect 如何计算深度 : 我的理解是 IR 投影仪抛出一个图案,该图案被 IR 摄像机反射回来并读取。 现在红外摄像机知道特定深度的模式。利用传入模式和已知模式之间的差异来计
我希望使用 Kinect ToF 相机进行编程,但是我不确定这样做的硬件和软件要求。我遇到了一些涵盖这个主题的文章/书籍,但似乎有一些不一致的地方让我有些困惑。 问题 我需要购买什么 Kinect 产
我正在探索 kinect 的开发,希望能够识别手指而不是整只手。 kinect 官方 SDK 的骨骼 API 只有手关节 - 没有手指跟踪的规定。我还了解到,最近微软在新的 SDK 中包含了抓握识别
我正在探索 kinect 的开发,希望能够识别手指而不是整只手。 kinect 官方 SDK 的骨骼 API 只有手关节 - 没有手指跟踪的规定。我还了解到,最近微软在新的 SDK 中包含了抓握识别
这个问题与 Kaggle/CHALEARN 手势识别挑战有关。 您将获得大量匹配 RGB 和深度视频的训练集,这些视频是从 Kinect 录制的。我想在这些视频上使用 Kinect SDK 的骨骼跟踪
我希望我的几个开发人员立即开始使用 Kinect SDK,而且时间紧迫。因为他们不在美国,所以我需要花太多时间为他们购买 Kinect 以及在 PC 上使用它所需的电缆。 有没有一种方法可以让他们在没
我正在尝试使用 Xbox 360 的 Kinect 开发一个有趣的人脸识别应用程序。我想知道应该使用哪个 SDK 和 Visual Studio 版本才能最好地访问 Kinect。 最佳答案 Is K
我正在尝试创建一个应用程序来放大和缩小图像并通过 Kinect 旋转图像。到目前为止,它适用于任何一种情况。我想要的是,如果我旋转了图像,则在缩放时会保存新值,因此我会放大已旋转 X 度的图像。我现在
很难说出这里问的是什么。这个问题模棱两可、含糊不清、不完整、过于宽泛或言辞激烈,无法以目前的形式合理回答。如需帮助澄清此问题以便可以重新打开,visit the help center . 9年前关闭
我正在研究一种扩展方法,将一个骨架移动到 kinect 字段 os View 中的所需位置。 我的代码接收要移动的骨骼和命运位置,我计算接收到的骨骼臀部中心与命运位置之间的距离以找到how much
给定从 Kinect 深度图获得的两个连续 3D 点云 1 和 2(不是整个云,比如说使用 OpenCV 的 GoodFeaturesToMatch 从云中选择的 100 个点),我想从 1 到 2
任何人都可以使用 Raspberry Pi 从 Kinect 获取相机数据吗? 我们想制作一个无线 Kinect 使用以太网或 WiFi 连接它。否则,请告诉我您是否有可行的替代方案。 最佳答案 要回
例如,我站在 Kinect 前面。 Kinect 可以识别关节,并将它们作为数据结构公开。到目前为止我已经很清楚了。 那么,我们能否将高度定义为头关节 - ((LeftAnkle + RightAnk
我尝试将从 Kinect 接收的图像保存为 png。我从包装中取出了一个 kinect 样本,它在两个平面上显示了深度和颜色图片,我对它们进行了修改。我尝试了不同的方法,例如直接保存 color32
kinect 真的很新。我正在尝试阅读我找到的 Material 。我找到了技术规范和 .net API 文档,但可以弄清楚我正在尝试做的事情是否可行: 我可以指示 kinect 物理移动相机吗? (
据说 Microsoft SDK 可以访问 Kinect 的内在参数,但有人知道它返回的深度图像是否实际上是不失真的吗?我找不到任何相关内容。 如果我脱离主题,请告诉我,尽管我认为这是一个隐式编程问题
由于传感器之间存在红外干扰,因此使用多个 Kinect v1 传感器非常困难。 根据我读到的内容 this gamastura article ,微软通过 Kinect v2 传感器测量深度的飞行时间
我只是对 Kinect v2 的主动红外图像和深度图像之间的差异理解感到困惑。谁能告诉我主动红外图像与深度图像相比有什么特殊功能? 最佳答案 在深度图像中,像素的值与通过飞行时间测量的距相机的距离相关
我可以从 Kinect 获取深度帧,然后修改帧中的数据。 现在我想使用修改后的深度帧来获取骨架数据。 我该怎么做? 最佳答案 好吧,我发现使用 microsoft kinect sdks 无法做到这一
This programming guide暗示这是可能的,所以我想知道到底是什么。 但是,现在它不起作用。 主机操作系统为 Vista 64 位,VMWare Workstation 6.5.3 运
我是一名优秀的程序员,十分优秀!