- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我已经看过很多以前与此相关的问题,但没有一个有帮助。
我的设置:
/dev/video0
和 /dev/video1
对于其中任何一台相机,我都可以捕捉图像并以相当不错的速度显示它们,并且延迟时间极短(偶尔出现伪影)。
但是,当我尝试同时使用两者时,我得到的帧速率可能是十分之一(尽管帧之间的延迟似乎随每一帧而变化很大)以及各种令人讨厌的图像伪影(请参阅下面的示例)和无法忍受的滞后量。
问题似乎不是相机本身或设备上的 USB 带宽:当我将相机连接到我的 Windows PC 时,我能够以 30 FPS 的速度捕捉和显示,而没有任何视觉效果人工制品和很少的滞后。
据我所知,问题一定出在 Pi 硬件、驱动程序或 OpenCV。我不认为这是 Pi 硬件。如果我能用两个摄像头实现一个摄像头帧速率的一半(而且我不明白为什么不应该这样做)并且没有丑陋的人工制品,我会很高兴.
有人有什么建议吗?我最终只是想将两个摄像头的视频从我的 Pi 流式传输到我的桌面。如果有不涉及 OpenCV 的建议,我会洗耳恭听;我并不想在 Pi 上对图像进行任何渲染或操作,但 openCV 是我发现的唯一可以相当快地捕捉图像的东西(当然是用一台相机)。
仅供引用,我使用的简单 python 脚本是这样的:
import cv2
import numpy as np
import socket
import ctypes
import struct
cap = []
cap.append(cv2.VideoCapture(0))
cap.append(cv2.VideoCapture(1))
#grab a single frame from one camera
def grab(num):
res, im = cap[num].read()
return (res,im)
#grab a frame from each camera and stitch them
#side by side
def grabSBS():
res, imLeft = grab(1)
#next line is for pretending I have 2 cameras
#imRight = imLeft.copy()
res, imRight = grab(0)
imSBS = np.concatenate((imLeft, imRight), axis=1)
return res,imSBS
###For displaying locally instead of streaming
#while(False):
# res, imLeft = grab(0)
# imRight = imLeft.copy()
# imSBS = np.concatenate((imLeft, imRight), axis=1)
# cv2.imshow("win", imSBS)
# cv2.waitKey(20)
header_data = ctypes.create_string_buffer(12)
while(True):
sck = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
sck.bind(("10.0.0.XXX", 12321))
sck.listen(1)
while(True):
(client, address) = sck.accept()
print "Client connected:", address
try:
while(True):
res,im = grabSBS()
if(res):
success, coded = cv2.imencode('.jpg', im)
if (success):
height, width, channels = im.shape
size = len(coded)
struct.pack_into(">i", header_data , 0, width)
struct.pack_into(">i", header_data , 4, height)
struct.pack_into(">i", header_data , 8, size)
client.sendall(header_data .raw)
client.sendall(coded.tobytes())
except Exception as ex:
print "ERROR:", ex
client.close()
sck.close()
exit()
更新:通过在初始化 VideoCapture 对象后添加以下代码行,我让它工作得非常非常好:
cap[0].set(cv2.CAP_PROP_FPS, 15)
cap[1].set(cv2.CAP_PROP_FPS, 15)
这既降低了所需的带宽,也降低了 openCV 的工作负载。我仍然每隔几帧就会遇到这些可怕的伪影,所以如果有人对此有任何建议,我很高兴听到。
最佳答案
好吧,在与它搏斗了大约 5 个小时之后,我似乎找到了解决方案。
首先,显然 OpenCV 试图以 30 FPS 的速度捕获,即使我无法以 30 FPS 的速度拉帧。我将 VideoCapture 帧速率更改为 15 FPS,视频变得更加流畅和快速。
cap[0].set(cv2.CAP_PROP_FPS, 15.0)
cap[1].set(cv2.CAP_PROP_FPS, 15.0)
不过,这并没有消除工件。我最终发现,如果我在通过网络发送图像后执行 del(im)
,伪影就会完全消失。
关于python - Raspberry Pi 3 上的 OpenCV 多 USB 摄像头,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36521421/
避免必须自己创建整个相机应用程序,我调用: Intent camera = new Intent(MediaStore.ACTION_IMAGE_CAPTURE); this.startActivit
我使用这种方法从前置摄像头录制视频: Recording video via Mediarecorder 它在我的 Nexus 4 上运行良好,但有人说有很多手机的前置摄像头无法录制视频,只能拍照。我
我正在使用 Android 手机的摄像头作为输入来测试成像算法,并且需要一种方法来始终如一地测试算法。理想情况下,我想获取预先录制的视频源并让手机“假装”视频源是来自相机的实时视频。 我理想的解决方案
我想在 android 上通过 v4l 访问外部 USB 摄像头。 我试过了 SimpleWebCam .在对原始源代码进行一些细微修改后,我实现了使其在 Root过的 android 设备上运行。然
我正在尝试连接两个连接到单个 USB 端口的 USB 网络摄像头。问题是当时只有一个摄像头工作...我在 python 中使用 OpenCV。这可能吗?我的目标是将多台相机连接到一台计算机以进行机器视
我想知道如何在 virtualbox 中使用笔记本电脑的内置网络摄像头和 android x86。 我已经尝试启动默认的“相机”应用程序,它告诉我必须配置 SDCard,我在本教程中所做的:SD ca
我在 64 位华硕的 Ubuntu 12.10 上安装了 ARToolKit。安装没有错误,所以我觉得我没问题。但是当我想尝试一个例子时,它找不到相机。如果我在 char *vconf = ""; 没
我想以编程方式移动 webvr 场景中 View 的位置。为此,我使用了position.add 方法。 以下是我如何以编程方式移动相机: 摄像机移至此处: var obj3d = docume
我正在使用 Camera 2 API 将 JPEG 图像保存在磁盘上。我的 Nexus 5X 目前有 3-4 fps,我想将其提高到 20-30。可能吗? 将图像格式更改为 YUV 我设法生成 30
Baby Monitor (http://www.babymonitor3g.com/) 等应用程序可让两台 iOS 设备相互连接。连接后,一台设备可以激活另一台设备上的摄像头、灯光和麦克风,即使该应
我有一个论坛帖子表单,允许发帖人附加录音和/或网络摄像头快照。这两个都是使用 navigator.getUserMedia() 实现的应用程序接口(interface)。对于音频,我建立了 varia
我对 Opencv 和 Python 有疑问。当我尝试从相机中查看帧时,它无法识别 USB 相机,我使用了带有两个 USB 相机的书籍中的标准代码,问题是只有一个相机工作,我不知道。我在 window
我编写了一个程序,基本上使用步进电机 + a4988 驱动程序将托盘放在连接到 Raspberry Pi 的相机下方。代码将托盘带到起始位置,迈出一步,拍照并重复 10 次。然后托盘返回到起始位置。我
我的 uEye 相机遇到了一个问题。使用我的笔记本电脑摄像头(id 0)或 usb 上的网络摄像头(id 1)这条线完美运行: TheVideoCapturer.open(1); (TheVideoC
我是 Android 版 openCV 的新手,我需要一个在后台运行的图像处理应用(检测图像的线条)。 我已经制作了一个应用程序来完成我需要的所有图像处理(使用 jni),但它不能在后台运行并且它使用
我正在尝试使用 OpenCV 从 USB 摄像头捕获视频。 #include #include using namespace std; using namespace cv; int main(
我正在寻找启用和禁用默认 iPhone 相机的方法,例如在特定时间或纬度/经度。有些地方是禁止摄像头的,所以我们可以在到达这样的地方时关闭它,这里只是举个例子。好吧,我认为在 iPhone 中禁用和启
有人有这种“东西”的工作样本吗? 在理论上,以这种方式实现它是个好主意,但我没有看到任何相关的代码 fragment 来说明如何实现它。 我不要花哨的东西,越简单越好。我只想在单独的线程上实现与相机控
我正在开发一个新网站。您可以加入房间通话并进行语音通话,因此可以使用您的网络摄像头,但您也可以共享您的屏幕。 问题是当我将轨道添加到流中时,对等点不再工作......我不知道如何解决这个问题。我还尝试
我需要在 Flutter 中创建一个考试应用程序,我们需要每隔一段时间拍摄用户的照片和视频,而在执行此操作时我们不想显示相机屏幕。 我尝试使用 Flutter 的 Camera 插件,但我无法找到任何
我是一名优秀的程序员,十分优秀!