gpt4 book ai didi

python-2.7 - v4l2 Python - 流式视频 - 映射缓冲区

转载 作者:太空宇宙 更新时间:2023-11-03 20:55:25 24 4
gpt4 key购买 nike

我正在为 Raspbian (Raspberry Pi 2) 中的 Python 编写视频捕获脚本,但我在使用 v4l2 的 Python 绑定(bind)时遇到了问题,因为我在内存映射缓冲区方面没有成功。

我需要什么:

  • 从 HD-WebCam 捕获视频(稍后将同时捕获其中的 2 个)。
  • 能够通过 WLAN 流式传输该视频(网络负载和处理速度之间的折衷)。
  • 将来,能够在流式传输之前对图像应用滤镜(非强制性)。

我尝试过的:

  • 使用 OpenCV (cv2)。它非常易于使用,但它增加了很多处理负载,因为它将网络摄像头的 JPEG 帧转换为原始图像,然后我必须在通过 WLAN 发送它们之前将它们转换回 JPEG。
  • 直接从“/dev/video0”读取。太棒了,因为网络摄像头发送的帧已经压缩,我可以读取并发送它们,但我的相机似乎不支持。
  • 使用 Python 的 v4l2 绑定(bind)。这是目前最有希望的选择,但是当我不得不映射视频缓冲区时,我陷入了困境。我找不到克服这些东西似乎需要的“内存指针/映射”的方法。

我读过的内容:

我的问题:

  1. 有更好的方法吗?或者如果不是...
  2. 我可以告诉 OpenCV 不要解压缩图像吗?最好使用 OpenCV 以应用 future 的扩展 。我找到了 here这是不允许的。
  3. 如何解决 Python 中的映射步骤? (任何工作示例?)

这是我使用 OpenCV 的(缓慢的)工作示例:

import cv2
import time

video = cv2.VideoCapture(0)

print 'Starting video-capture test...'

t0 = time.time()
for i in xrange(100):
success, image = video.read()
ret, jpeg = cv2.imencode('.jpg',image)

t1 = time.time()
t = ( t1 - t0 ) / 100.0
fps = 1.0 / t

print 'Test finished. ' + str(t) + ' sec. per img.'
print str( fps ) + ' fps reached'

video.release()

下面是我对 v4l2 所做的:

FRAME_COUNT = 5

import v4l2
import fcntl
import mmap

def xioctl( fd, request, arg):

r = 0

cond = True
while cond == True:
r = fcntl.ioctl(fd, request, arg)
cond = r == -1
#cond = cond and errno == 4

return r

class buffer_struct:
start = 0
length = 0

# Open camera driver
fd = open('/dev/video1','r+b')

BUFTYPE = v4l2.V4L2_BUF_TYPE_VIDEO_CAPTURE
MEMTYPE = v4l2.V4L2_MEMORY_MMAP

# Set format
fmt = v4l2.v4l2_format()
fmt.type = BUFTYPE
fmt.fmt.pix.width = 640
fmt.fmt.pix.height = 480
fmt.fmt.pix.pixelformat = v4l2.V4L2_PIX_FMT_MJPEG
fmt.fmt.pix.field = v4l2.V4L2_FIELD_NONE # progressive

xioctl(fd, v4l2.VIDIOC_S_FMT, fmt)

buffer_size = fmt.fmt.pix.sizeimage
print "buffer_size = " + str(buffer_size)

# Request buffers
req = v4l2.v4l2_requestbuffers()

req.count = 4
req.type = BUFTYPE
req.memory = MEMTYPE

xioctl(fd, v4l2.VIDIOC_REQBUFS, req)

if req.count < 2:
print "req.count < 2"
quit()

n_buffers = req.count

buffers = list()
for i in range(req.count):
buffers.append( buffer_struct() )

# Initialize buffers. What should I do here? This doesn't work at all.
# I've tried with USRPTR (pointers) but I know no way for that in Python.
for i in range(n_buffers):

buf = v4l2.v4l2_buffer()

buf.type = BUFTYPE
buf.memory = MEMTYPE
buf.index = i

xioctl(fd, v4l2.VIDIOC_QUERYBUF, buf)

buffers[i].length = buf.length
buffers[i].start = mmap.mmap(fd.fileno(), buf.length,
flags = mmap.PROT_READ,# | mmap.PROT_WRITE,
prot = mmap.MAP_SHARED,
offset = buf.m.offset )

我将不胜感激任何帮助或建议。非常感谢!

最佳答案

在这里添加我刚刚发现的另一个选项,您也可以将 V4L2 后端与 OpenCV 一起使用。

您只需在 VideoCapture 构造函数中指定它即可。例如

cap = cv2.VideoCapture()

cap.open(0, apiPreference=cv2.CAP_V4L2)

cap.set(cv2.CAP_PROP_FOURCC, cv2.VideoWriter_fourcc('M', 'J', 'P', 'G'))
cap.set(cv2.CAP_PROP_FRAME_WIDTH, 1280)
cap.set(cv2.CAP_PROP_FRAME_HEIGHT, 960)
cap.set(cv2.CAP_PROP_FPS, 30.0)

如果没有明确指定,OpenCV 将经常使用另一个相机 API(例如 gstreamer),这通常更慢且更麻烦。在这个例子中,我从限制在 4-5 FPS 到 720p 时高达 15 FPS(使用 Intel Atom Z8350)。

如果您希望将它与环形缓冲区(或其他内存映射缓冲区)一起使用,请查看以下资源:

https://github.com/Battleroid/seccam

https://github.com/bslatkin/ringbuffer

关于python-2.7 - v4l2 Python - 流式视频 - 映射缓冲区,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36426826/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com