- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
背景
我编写的代码记录来自网络摄像头的视频剪辑,将它们写入内存流,然后通过套接字连接传输数据,在此处将数据重新组合成视频并在媒体元素上播放。
最终目标是创建一个婴儿监视器系统,服务器/摄像头运行在 Windows IOT Raspberry Pi 上,还有一个 UWP 应用程序,我和我的女朋友可以在我们的手机或笔记本电脑上查看。除了从房子的另一部分查看摄像头外,我们还可以在我们中的一个人出门在外时登录,我会及时连接 PIR 运动传感器和警报系统,但首先要做的是首先。
整个系统工作得很好,视频有 5 秒的延迟,我可以接受(目前),并且使用 MediaPlaybackList 视频以相当恒定的速率流式传输,并且无缝(像这样无缝现在可以得到)视频之间的过渡。 MediaPlaybackList 在播放项目时将其移除,从而使内存占用量保持相对恒定。
问题
当视频在客户端播放时,会出现频繁但随机的碎图片段。它没有模式,反正我也找不到,我能描述的唯一方式是图片的一部分水平分成两半,两半左右交换,图片的右侧显示在左边,反之亦然。这就像一个闪烁,因为 splinter 的位只显示几分之一秒,因为另一位在一秒钟左右之后出现在图片的其他地方。
这是一个例子:
1) 在开始使用 MediaPlaybackList 对数据流进行排队之前,我使用的方法是从传入的套接字流中提取每个视频,将其作为 StorageFile 保存到本地磁盘,然后将这些 StorageFile 排队,播放他们按顺序删除它们(我在源代码管理中仍然有这个代码的一个版本,我可以挖掘出来,但我不喜欢创建和销毁 StorageFiles 的想法,因为它看起来非常低效)。然而,使用这种方法并没有导致我现在看到的破损图片……这让我相信视频本身很好,而且可能是它被放回一起并流式传输到的方式有问题媒体元素?
2) 我女朋友的猫在我没有意识到的情况下将网络摄像头(Microsoft Lifecam HD-3000)撞到了一边,直到我运行服务器并注意到图片呈 90 度角时我才意识到......有趣(和令人费解)的是,交付给客户的图片并没有像我上面描述的那样分解。我在这里看到的唯一区别是图片随后以 480 x 640(来自侧面的相机)而不是标准的 640 x 480 显示。这意味着什么,我不确定...
对问题的思考
来源
这里有一些我认为可能相关的代码片段,完整的解决方案源可以在 GitHub 上找到: Video Socket Server.
服务器
while (true)
{
try
{
//record a 5 second video to stream
Debug.WriteLine($"Recording started");
var memoryStream = new InMemoryRandomAccessStream();
await _mediaCap.StartRecordToStreamAsync(MediaEncodingProfile.CreateMp4(VideoEncodingQuality.Vga), memoryStream);
await Task.Delay(TimeSpan.FromSeconds(5));
await _mediaCap.StopRecordAsync();
Debug.WriteLine($"Recording finished, {memoryStream.Size} bytes");
//create a CurrentVideo object to hold stream data and give it a unique id
//which the client app can use to ensure they only request each video once
memoryStream.Seek(0);
CurrentVideo.Id = Guid.NewGuid();
CurrentVideo.Data = new byte[memoryStream.Size];
//read the stream data into the CurrentVideo
await memoryStream.ReadAsync(CurrentVideo.Data.AsBuffer(), (uint)memoryStream.Size, InputStreamOptions.None);
Debug.WriteLine($"Bytes written to stream");
//signal to waiting connections that there's a new video
_signal.Set();
_signal.Reset();
}
catch (Exception ex)
{
Debug.WriteLine($"StartRecording -> {ex.Message}");
break;
}
}
连接
//use the guid to either get the current video, or wait for the
//next new one that's added by the server
Guid guid = Guid.Empty;
Guid.TryParse(command, out guid);
byte[] data = _server.GetCurrentVideoDataAsync(guid);
if (data != null)
await _socket.OutputStream.WriteAsync(data.AsBuffer());
客户端应用
byte[] inbuffer = new byte[10000000];
//block on the input stream until we've received the full packet,
//but use the Partial option so that we don't have to fill the entire buffer before we continue.
//this is important, because the idea is to set the buffer big enough to handle any packet we'll receive,
//meaning we'll never fill the entire buffer... and we don't want to block here indefinitely
result = await socket.InputStream.ReadAsync(inbuffer.AsBuffer(), inbuffer.AsBuffer().Capacity, InputStreamOptions.Partial);
//strip off the Guid, leaving just the video data
byte[] guid = result.ToArray().Take(16).ToArray();
byte[] data = result.ToArray().Skip(16).ToArray();
_guid = new Guid(guid);
//wrap the data in a stream, create a MediaSource from it,
//then use that to create a MediaPlackbackItem which gets added
//to the back of the playlist...
var stream = new MemoryStream(data);
var source = MediaSource.CreateFromStream(stream.AsRandomAccessStream(), "video/mp4");
var item = new MediaPlaybackItem(source);
_playlist.Items.Add(item);
最佳答案
我想做类似的事情(从 Raspberry Pi 上的 UWP 应用流式传输视频/音频),但我一直在使用 Windows 10 SDK 中的简单通信示例,经过一些调整后我已经能够可靠地工作(示例代码存在线程同步问题)。然而,SDK 示例使用使用媒体扩展的专有协议(protocol),并且通过互联网重定向流并不容易,这是我的用例,所以我查看了您的代码并让它工作(具有相同的错误)。 Simple Real Time communication
关于您的方法的几点评论:
1) RPi 不能很好地处理 Win10 上的视频,因为它不能使用硬件视频编码器,所以一切都在软件中。这将导致故障,我看到 CPU 性能显着提高,利用率超过 50%,这意味着至少有一个 CPU 内核正在接近最大工作,可能是处理视频压缩到 MP4 的内核。然而,我运行了 SDK 示例并获得了无故障的查看和大约 70% 的 CPU,因此您的问题可能在其他地方。
2) 5 秒的延迟很重要。我得到的实时样本延迟不到 100 毫秒,但是当我将您的流式传输计时器调低到 1 秒时,中断很明显且不可行。您是否考虑过更改设计以使其在捕获期间流式传输,但是我不确定 InMemoryRandomAccessStream 是否会让您这样做。另一种替代方法是像简单通信示例那样捕获预览流并将自定义媒体接收器写入缓冲区(因为没有托管代码更难做到并且可能无法轻松压缩)。
3) MP4 是一种容器而不是一种压缩格式,它不是为流式传输而构建的,因为整个文件必须在开始之前下载,除非 moov 元数据记录位于文件的开头。不确定 UWP 如何处理此问题,可能需要您在发送前关闭流的方法,以确保另一端可以正常播放。
所以不是一个完整的答案,但希望以上内容有所帮助。
关于c# - UWP - 通过套接字将网络摄像头流式传输到 MediaElement - 图片损坏?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37812506/
避免必须自己创建整个相机应用程序,我调用: Intent camera = new Intent(MediaStore.ACTION_IMAGE_CAPTURE); this.startActivit
我使用这种方法从前置摄像头录制视频: Recording video via Mediarecorder 它在我的 Nexus 4 上运行良好,但有人说有很多手机的前置摄像头无法录制视频,只能拍照。我
我正在使用 Android 手机的摄像头作为输入来测试成像算法,并且需要一种方法来始终如一地测试算法。理想情况下,我想获取预先录制的视频源并让手机“假装”视频源是来自相机的实时视频。 我理想的解决方案
我想在 android 上通过 v4l 访问外部 USB 摄像头。 我试过了 SimpleWebCam .在对原始源代码进行一些细微修改后,我实现了使其在 Root过的 android 设备上运行。然
我正在尝试连接两个连接到单个 USB 端口的 USB 网络摄像头。问题是当时只有一个摄像头工作...我在 python 中使用 OpenCV。这可能吗?我的目标是将多台相机连接到一台计算机以进行机器视
我想知道如何在 virtualbox 中使用笔记本电脑的内置网络摄像头和 android x86。 我已经尝试启动默认的“相机”应用程序,它告诉我必须配置 SDCard,我在本教程中所做的:SD ca
我在 64 位华硕的 Ubuntu 12.10 上安装了 ARToolKit。安装没有错误,所以我觉得我没问题。但是当我想尝试一个例子时,它找不到相机。如果我在 char *vconf = ""; 没
我想以编程方式移动 webvr 场景中 View 的位置。为此,我使用了position.add 方法。 以下是我如何以编程方式移动相机: 摄像机移至此处: var obj3d = docume
我正在使用 Camera 2 API 将 JPEG 图像保存在磁盘上。我的 Nexus 5X 目前有 3-4 fps,我想将其提高到 20-30。可能吗? 将图像格式更改为 YUV 我设法生成 30
Baby Monitor (http://www.babymonitor3g.com/) 等应用程序可让两台 iOS 设备相互连接。连接后,一台设备可以激活另一台设备上的摄像头、灯光和麦克风,即使该应
我有一个论坛帖子表单,允许发帖人附加录音和/或网络摄像头快照。这两个都是使用 navigator.getUserMedia() 实现的应用程序接口(interface)。对于音频,我建立了 varia
我对 Opencv 和 Python 有疑问。当我尝试从相机中查看帧时,它无法识别 USB 相机,我使用了带有两个 USB 相机的书籍中的标准代码,问题是只有一个相机工作,我不知道。我在 window
我编写了一个程序,基本上使用步进电机 + a4988 驱动程序将托盘放在连接到 Raspberry Pi 的相机下方。代码将托盘带到起始位置,迈出一步,拍照并重复 10 次。然后托盘返回到起始位置。我
我的 uEye 相机遇到了一个问题。使用我的笔记本电脑摄像头(id 0)或 usb 上的网络摄像头(id 1)这条线完美运行: TheVideoCapturer.open(1); (TheVideoC
我是 Android 版 openCV 的新手,我需要一个在后台运行的图像处理应用(检测图像的线条)。 我已经制作了一个应用程序来完成我需要的所有图像处理(使用 jni),但它不能在后台运行并且它使用
我正在尝试使用 OpenCV 从 USB 摄像头捕获视频。 #include #include using namespace std; using namespace cv; int main(
我正在寻找启用和禁用默认 iPhone 相机的方法,例如在特定时间或纬度/经度。有些地方是禁止摄像头的,所以我们可以在到达这样的地方时关闭它,这里只是举个例子。好吧,我认为在 iPhone 中禁用和启
有人有这种“东西”的工作样本吗? 在理论上,以这种方式实现它是个好主意,但我没有看到任何相关的代码 fragment 来说明如何实现它。 我不要花哨的东西,越简单越好。我只想在单独的线程上实现与相机控
我正在开发一个新网站。您可以加入房间通话并进行语音通话,因此可以使用您的网络摄像头,但您也可以共享您的屏幕。 问题是当我将轨道添加到流中时,对等点不再工作......我不知道如何解决这个问题。我还尝试
我需要在 Flutter 中创建一个考试应用程序,我们需要每隔一段时间拍摄用户的照片和视频,而在执行此操作时我们不想显示相机屏幕。 我尝试使用 Flutter 的 Camera 插件,但我无法找到任何
我是一名优秀的程序员,十分优秀!