gpt4 book ai didi

swift - 功能检测期间 iOS Vision API "computeBlinkFunction"中的错误和卡住

转载 作者:行者123 更新时间:2023-11-28 05:48:52 31 4
gpt4 key购买 nike

我使用 iOS Vision API 在 ARFrame 上实时执行特征检测从 iPhone X 上的相机传递的缓冲区。它通常运行良好,但在 iOS 11 和 iOS 12 上,我一直在控制台中偶尔看到错误,我无法找到任何相关信息。此错误连续多次打印出来,通常与我的应用程序中的严重卡住有关。

有没有人以前在他们的控制台中看到过这个错误,或者知道是什么原因造成的?任何信息或调试技巧将不胜感激。

LandmarkDetector error -20:out of bounds in int vision::mod::LandmarkAttributes::computeBlinkFunction(const vImage_Buffer &, const Geometry2D_rect2D &, const std::vector<Geometry2D_point2D> &, vImage_Buffer &, vImage_Buffer &, std::vector<float> &, std::vector<float> &) @ /BuildRoot/Library/Caches/com.apple.xbs/Sources/Vision/Vision-2.0.62/LandmarkDetector/LandmarkDetector_Attributes.mm:535

更多信息:我认为这个错误发生在我的 VNDetectFaceLandmarksRequest 期间.目前我将 ARKit 找到的人脸边界框标准化为 inputFaceObservations , 但我在使用 VNDetectFaceRectangleRequest 时也看到了这些错误找到面部边界框。我正在使用 VNSequenceRequestHandler在每个 ARFrame 上实时发出这些请求来自相机,在后台线程上运行。

最佳答案

今年的 WWDC with Vision 涵盖的内容是检测请求比跟踪请求占用更多资源。我相信建议是一旦收到检测,就应该停止检测请求,而只使用跟踪。我在自己的 Vision 代码(我将它用于文本和条形码)中注意到的一件事是,一旦你获得初始检测,你就会开始获得大量观察结果,并且可能是 Vision 输出观察结果的速度更快如果持续足够长的时间,系统将无法真正处理。

关于swift - 功能检测期间 iOS Vision API "computeBlinkFunction"中的错误和卡住,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53659045/

31 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com