- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
从视频文件开始,我逐帧扫描视频,直到我使用 OpenCV Haar 正面面部级联找到一张脸。然后我将这些坐标传递给 Camshift(使用 OpenCV 示例代码)以从该帧开始跟踪该面部。然后我在 Camshift 返回的跟踪框中使用 Haar 眼睛/嘴巴检测,假设这是我感兴趣的区域。
当我这样做时,眼睛/嘴巴检测返回的结果很少/没有。
如果我只是在没有 Camshift 的情况下使用相同的眼睛和嘴巴检测器对视频进行基本浏览,那么它们会检测到眼睛和嘴巴(尽管经常将嘴巴检测为眼睛,反之亦然,但仍然比我的 Camshift 检测效果更好-跟踪 ROI 方法)。
这与我的预期相反 - 与对整个视频帧进行哑扫描相比,是否应该将搜索限制在已知和跟踪面部的 ROI 内,以实现更可靠的面部特征检测?也许我对我的搜索坐标做了一些不合适的事情……
非常感谢任何帮助。
import numpy as np
import cv2
import cv
from common import clock, draw_str
import video
class App(object):
def __init__(self, video_src):
if video_src == "webcam":
self.cam = video.create_capture(0)
else:
self.vidFile = cv.CaptureFromFile('sources/' + video_src + '.mp4')
self.vidFrames = int(cv.GetCaptureProperty(self.vidFile, cv.CV_CAP_PROP_FRAME_COUNT))
self.cascade_fn = "haarcascades/haarcascade_frontalface_default.xml"
self.cascade = cv2.CascadeClassifier(self.cascade_fn)
self.left_eye_fn = "haarcascades/haarcascade_eye.xml"
self.left_eye = cv2.CascadeClassifier(self.left_eye_fn)
self.mouth_fn = "haarcascades/haarcascade_mcs_mouth.xml"
self.mouth = cv2.CascadeClassifier(self.mouth_fn)
self.selection = None
self.drag_start = None
self.tracking_state = 0
self.show_backproj = False
self.face_frame = 0
cv2.namedWindow('camshift')
cv2.namedWindow('source')
#cv2.namedWindow('hist')
if video_src == "webcam":
while True:
ret, img = self.cam.read()
self.rects = self.faceSearch(img)
print "Searching for face..."
if len(self.rects) != 0:
break
else:
for f in xrange(self.vidFrames):
img = cv.QueryFrame(self.vidFile)
tmp = cv.CreateImage(cv.GetSize(img), 8, 3)
cv.CvtColor(img, tmp, cv.CV_BGR2RGB)
img = np.asarray(cv.GetMat(tmp))
print "Searching frame", f+1
self.face_frame = f
self.rects = self.faceSearch(img)
if len(self.rects) != 0:
break
def faceSearch(self, img):
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
gray = cv2.equalizeHist(gray)
rects = self.detect(gray, self.cascade)
if len(rects) != 0:
print "Detected face"
sizeX = rects[0][2] - rects[0][0]
sizeY = rects[0][3] - rects[0][1]
print "Face size is", sizeX, "by", sizeY
return rects
else:
return []
def detect(self, img, cascade):
# flags = cv.CV_HAAR_SCALE_IMAGE
rects = cascade.detectMultiScale(img, scaleFactor=1.1, minNeighbors=2, minSize=(80, 80), flags = cv.CV_HAAR_SCALE_IMAGE)
if len(rects) == 0:
return []
rects[:,2:] += rects[:,:2]
return rects
def draw_rects(self, img, rects, color):
for x1, y1, x2, y2 in rects:
cv2.rectangle(img, (x1, y1), (x2, y2), color, 2)
def show_hist(self):
bin_count = self.hist.shape[0]
bin_w = 24
img = np.zeros((256, bin_count*bin_w, 3), np.uint8)
for i in xrange(bin_count):
h = int(self.hist[i])
cv2.rectangle(img, (i*bin_w+2, 255), ((i+1)*bin_w-2, 255-h), (int(180.0*i/bin_count), 255, 255), -1)
img = cv2.cvtColor(img, cv2.COLOR_HSV2BGR)
cv2.imshow('hist', img)
cv.MoveWindow('hist', 0, 440)
def faceTrack(self, img):
vis = img.copy()
hsv = cv2.cvtColor(img, cv2.COLOR_BGR2HSV)
mask = cv2.inRange(hsv, np.array((0., 60., 32.)), np.array((180., 255., 255.)))
x0, y0, x1, y1 = self.rects[0]
self.track_window = (x0, y0, x1-x0, y1-y0)
hsv_roi = hsv[y0:y1, x0:x1]
mask_roi = mask[y0:y1, x0:x1]
hist = cv2.calcHist( [hsv_roi], [0], mask_roi, [16], [0, 180] )
cv2.normalize(hist, hist, 0, 255, cv2.NORM_MINMAX);
self.hist = hist.reshape(-1)
#self.show_hist()
vis_roi = vis[y0:y1, x0:x1]
cv2.bitwise_not(vis_roi, vis_roi)
vis[mask == 0] = 0
prob = cv2.calcBackProject([hsv], [0], self.hist, [0, 180], 1)
prob &= mask
term_crit = ( cv2.TERM_CRITERIA_EPS | cv2.TERM_CRITERIA_COUNT, 10, 1 )
track_box, self.track_window = cv2.CamShift(prob, self.track_window, term_crit)
if self.show_backproj:
vis[:] = prob[...,np.newaxis]
try: cv2.ellipse(vis, track_box, (0, 0, 255), 2)
except: print track_box
gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
gray = cv2.equalizeHist(gray)
xc = track_box[0][0]
yc = track_box[0][1]
xsize = track_box[1][0]
ysize = track_box[1][1]
x1 = int(xc - (xsize/2))
y1 = int(yc - (ysize/2))
x2 = int(xc + (xsize/2))
y2 = int(yc + (ysize/2))
roi_rect = y1, y2, x1, x2
roi = gray[y1:y2, x1:x2]
vis_roi = img.copy()[y1:y2, x1:x2]
subrects_left_eye = self.detect(roi.copy(), self.left_eye)
subrects_mouth = self.detect(roi.copy(), self.mouth)
if subrects_left_eye != []:
print "eye:", subrects_left_eye, "in roi:", roi_rect
self.draw_rects(vis_roi, subrects_left_eye, (255, 0, 0))
self.draw_rects(vis_roi, subrects_mouth, (0, 255, 0))
cv2.imshow('test', vis_roi)
dt = clock() - self.t
draw_str(vis, (20, 20), 'time: %.1f ms' % (dt*1000))
#draw_str(vis, (20, 35), 'frame: %d' % f)
cv2.imshow('source', img)
cv.MoveWindow('source', 500, 0)
cv2.imshow('camshift', vis)
def run(self):
if video_src == "webcam":
while True:
self.t = clock()
ret, img = self.cam.read()
self.faceTrack(img)
ch = 0xFF & cv2.waitKey(1)
if ch == 27:
break
if ch == ord('b'):
self.show_backproj = not self.show_backproj
else:
for f in xrange(self.face_frame, self.vidFrames):
self.t = clock()
img = cv.QueryFrame(self.vidFile)
if type(img) != cv2.cv.iplimage:
break
tmp = cv.CreateImage(cv.GetSize(img), 8, 3)
cv.CvtColor(img, tmp, cv.CV_BGR2RGB)
img = np.asarray(cv.GetMat(tmp))
self.faceTrack(img)
ch = 0xFF & cv2.waitKey(5)
if ch == 27:
break
if ch == ord('b'):
self.show_backproj = not self.show_backproj
cv2.destroyAllWindows()
if __name__ == '__main__':
import sys
try: video_src = sys.argv[1]
except: video_src = '1'
App(video_src).run()
最佳答案
您提到 detectMultiScale 的最小尺寸为 80 像素。脸上可能是这样,但眼睛和嘴巴没那么大。所以这可能是不检测眼睛和嘴巴的原因之一。在调用眼睛和嘴巴时尝试将其减少到 20 或 30 像素。
关于python - OpenCV Haar 特征检测,仅限于 Camshift 跟踪区域,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/11140692/
有没有办法在 xdebug 跟踪输出中查看 echo 或 print 函数调用。我正在为我在我的服务器中运行的所有脚本寻找一个全局配置(或一种方法)。 例子: 我希望跟踪输出显示 echo 调用。默
我将应用程序从2.0.0M2升级到了2.1.0,但是当我尝试运行该应用程序时,出现此错误: Note: /Volumes/Info/proyectos-grails/vincoorbis/Member
我如何在共享点中执行日志记录。我想使用跟踪。 以便它记录 12 个配置单元日志。 最佳答案 微软提供了一个例子: http://msdn.microsoft.com/en-us/library/aa9
如何跟踪 eclipse 和 android 模拟器的输出。我习惯于在 Flash 和 actionscript 中这样做。 在 AS3 中它将是: trace('我的跟踪语句'); 最佳答案 您有几
是否可以在 Postgresql 上进行查询跟踪?我在带有 OLEDB 界面的 Windows 上使用 9.0。 此外,我需要它是实时的,而不是像默认情况下那样缓冲... 最佳答案 我假设您的意思是在
第一天 HaxeFlixel 编码器。愚蠢的错误,但谷歌没有帮助我。 如何使用 Haxe、NME 和 Flixel 追踪到 FlashDevelop 输出。它在使用 C++ 执行时有效,但对 Flas
我有一个关于 iPhone 上跟踪触摸的快速问题,我似乎无法就此得出结论,因此非常感谢任何建议/想法: 我希望能够跟踪和识别 iPhone 上的触摸,即。基本上每次触摸都有一个起始位置和当前/移动位置
我正在做我的大学项目,我只想跟踪错误及其信息。错误信息应该与用户源设备信息一起存储在数据库中(为了检测源设备,我正在使用MobileDetect扩展名)。我只想知道应该在哪里编写代码,以便获得所有错误
我正在 Azure 中使用多个资源,流程如下所示: 从 sftp 获取文件 使用 http 调用的数据丰富文件 将消息放入队列 处理消息 调用一些外部电话 传递数据 我们如何跟踪上述过程中特定“运行”
在我的 WCF 服务中,当尝试传输大数据时,我不断收到错误:底层连接已关闭:连接意外关闭 我想知道引发此错误的具体原因,因此我设置了 WCF 跟踪并可以读取 traces.svclog 文件。 问题是
我的目标是在 Firebase Analytics 中获取应用数据,在 Google Universal Analytics 中获取其他自定义数据和应用数据。 我的问题是我是否在我的应用上安装 Fir
我正在 Azure 中使用多个资源,流程如下所示: 从 sftp 获取文件 使用 http 调用的数据丰富文件 将消息放入队列 处理消息 调用一些外部电话 传递数据 我们如何跟踪上述过程中特定“运行”
我们正在考虑跟踪用户通过 Tridion 管理的网站的旅程的要求,然后能够根据此行为将此用户识别为“潜在客户”,然后如果他们在之后没有返回,则触发向此用户发送电子邮件X 天。 SmartTarget
在 Common Lisp 中,函数(跟踪名称)可用于查看有关函数调用的输出。 如果我的函数是用局部作用域声明的,我如何描述它以进行跟踪? 例如,如何跟踪栏,如下: (defun foo (x)
有什么方法可以检测文本框的值是否已更改,是用户明确更改还是某些 java 脚本代码修改了文本框?我需要检测这种变化。 最佳答案 要跟踪用户更改,您可以添加按键处理程序: $(selector).key
int Enable ( int pid) { int status; #if 1 { printf ( "child pid = %d \n", pid ); long ret =
关闭。这个问题需要多问focused 。目前不接受答案。 想要改进此问题吗?更新问题,使其仅关注一个问题 editing this post . 已关闭 9 年前。 Improve this ques
我有以下测试代码: #include int main(void) { fprintf(stderr, "This is a test.\n"); int ret = open("s
我有一个闭源 Java 应用程序,供应商已为其提供了用于自定义的 API。由于我没有其他文档,我完全依赖 API 的 javadoc。 我想跟踪特定用例在不同类中实际调用的方法。有什么办法可以用 ec
我正在学习 PHP。我在我的一个 php 函数中使用了如下所示的 for 循环。 $numbers = $data["data"]; for ($i = 0;$i send($numbers[
我是一名优秀的程序员,十分优秀!