- objective-c - iOS 5 : Can you override UIAppearance customisations in specific classes?
- iphone - 如何将 CGFontRef 转换为 UIFont?
- ios - 以编程方式关闭标记的信息窗口 google maps iOS
- ios - Xcode 5 - 尝试验证存档时出现 "No application records were found"
我正在为 iOS 开发一个应用程序,需要检测用户何时打哈欠。
我所做的是打开 CV 并使用 haar 级联查找人脸,然后在人脸内部找到嘴巴(也使用 haar 级联)。
我遇到的问题是,我相信检测打哈欠很容易,就像做类似 (face.y - mouth.y) < something = yawn 这样的事情。
但我遇到的问题是脸部和嘴巴的矩形是“不稳定的”,我的意思是每次循环运行时,脸部和嘴巴的矩形的 X 和 Y 值(显然)不相同。
是否有任何我可以使用的“张开嘴”的 haar 级联,或者我如何知道用户何时张开嘴?
最佳答案
一般来说,支持向量机 (SVM) 用于面部表情识别,例如愤怒、微笑、惊讶等仍在积极发展的领域。谷歌搜索给你很多关于这个主题的论文,(甚至我的一个同学也把这个作为他的最后一年的项目)。为此,首先您需要训练 SVM,为此,您需要打哈欠和正常人脸的示例图像。
打呵欠几乎与惊讶相似,都是张大嘴巴。我建议您查看以下论文的第 3 页:Real Time Facial Expression Recognition in Videousing Support Vector Machines (如果您无法访问该链接,请通过论文名称谷歌)
论文(甚至我的同学)使用了面部特征的位移向量。为此,您会在脸上找到一些特征点。例如,在论文中,他们使用了眼睛瞳孔、眼睑极值点、鼻尖、嘴部区域(嘴唇)极值点等,然后他们不断跟踪特征的位置并找到欧几里得他们之间的距离。它们用于训练 SVM。
查看以下两篇论文:
Feature Points Extraction from Faces
Fully Automatic Facial Feature Point Detection Using Gabor Feature Based Boosted Classifiers
请看下图,我所说的面部特征点是什么意思:
就您而言,我认为您是在 iPhone 中实时实现的。所以你可以避免眼睛上的特征点(虽然不是一个好主意,因为当你打哈欠时,眼睛会变小)。但与之相比,嘴唇上的特征点表现出更多的变化和优势。因此,仅在口头上实现可能会节省时间。 (嗯,这一切都取决于你)。
Lip Segmentation:它已经在 SOF 中讨论过并查看这个问题:OpenCV Lip Segmentation
最后,我相信您可以在 google 上找到很多详细信息,因为它是一个活跃的开发领域,并且那里有很多论文。
另一种选择:
这个地区的另一个选项是Active Appearance Model
,我已经听过好几次了。但我对此一无所知。自己谷歌一下。
关于ios - 如何使用 Open CV 检测打哈欠,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10966772/
我到处都找了很多,找不到我的问题的答案。我试图从这个线程复制一个文本检测软件(Extracting text OpenCV)但是在代码的末尾有一条消息错误说没有匹配的矩形,即使我已经在上面绘制了一个并
我已经彻底搜索过,但没有找到直接的答案。 将 opencv 矩阵 (cv::Mat) 作为参数传递给函数,我们传递的是智能指针。我们对函数内部的输入矩阵所做的任何更改也会改变函数范围之外的矩阵。 我读
在我的应用程序中,我有一个通过引用接收 cv::Mat 对象的函数。这是函数的声明: void getChains(cv::Mat &img,std::vector &chains,cv::
我正在使用 Qt 编写一个 GUI 程序,并使用 OpenCV 进行一些视频处理。我在主 GUI 线程的标签中显示 OpenCV 进程(在单独的线程中)的结果。 我遇到的问题是 cv::waitKey
Mat a = (Mat_(3,3) = 2 int dims; //! the number of rows and columns or (-1, -1) when the arr
我尝试运行下面的代码,但出现错误。我正在为名为“Mat::at”的 OpenCV 函数创建一个包装器,并尝试使用“G++”将其编译为 Ubuntu Trusty 上的“.so”。我在下面列出了“.cp
我在 C# 中使用 EmguCV,当我想从网络摄像头抓取帧时遇到问题,语句中出现红色下划线: imgOrg = capturecam.QueryFrame(); error: Cannot impli
我正在尝试从另外两个矩阵生成一个 cv::Mat C,以便获得第三个矩阵,该矩阵由通过组合矩阵 A 和 B 的一维点生成的二维点构成。 我的问题是,我尝试的所有操作都只是连接矩阵,并没有真正将每个点与
我用 cv.imread在 python 中读取 png 文件。然后当我使用 cv.imwrite立即保存图像的功能我然后发现图像中的颜色略有变化。我正在尝试在此图像上执行字符识别,而 OCR 在 p
我尝试将 cv::bitwise_not 转换为 double 值的 cv::Mat 矩阵。我申请了 cv::bitwise_not(img, imgtemp); img是0和1的CV_64F数据。但
我正在尝试使用函数 cv.glmnet 找到最佳的 lambda(使用 RIDGE 回归)以预测某些对象的归属类别。所以我使用的代码是: CVGLM<-cv.glmnet(x,y,nfolds=34,
我有这个方法: static void WriteMatVect(const std::string& filename, const std::vector& mats); ... void Fil
下面的转换是我想要做的。 对于源图像中的每个图 block ,我知道每个角的坐标,并且我知道输出图像中每个对应角的坐标,所以我可以调用 cvWarpPerspective 扭曲每个图 block ,然
我必须在C++ / CLI中的托管和非托管代码中都使用OpenCV。 我正在尝试在托管代码中使用Emgu CV来包装OpenCV对象,但是在进行转换时遇到了麻烦。 我该怎么做: Emgu::CV::M
我正在尝试在 cv::Mat 中使用 CV_32FC4,以便它存储 RGBA32 图像。但是当我使用 cv::imwrite 将其保存为 png 文件时,结果文件始终是一个空图像。 例如,我创建了这样
无法在 VS 2017 中设置 OpenCV。我做错了什么?是的,我已将所有其他帖子设为红色。 代码: #include "opencv2/highgui/highgui.hpp" u
我有两个(相同大小,相同类型)cv:Mat 让我们称它们为 A,B。我还有另一个 cv::Mat,它是一个掩码(0 和 1 值或其他值,0 和 255 也适用)让我们称它为 M。 我需要构造一个新的
使用 OpenCV 中实现的 Scalar 类,我不明白这段代码有什么区别: Mat test; test = Scalar::all(0); 还有这个: Mat test = Scalar::all
我对这行代码感到困惑: cv::Mat_::iterator 我知道 Mat_ 属于 cv 命名空间和 vec3b 也。但是之后的最后一个 :: 操作符和 iterator 让我感到困惑!它也属于 c
我想优雅地将 Mat 转换为 Vec3f。目前我是这样做的: Mat line; Vec3f ln; ln[0] = line.
我是一名优秀的程序员,十分优秀!