- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
设置和说明:
我正在为学校做一个项目,遇到了一个令人困惑的问题。我正在尝试将 USB 信号无线传输到整个房间 3-4 英尺。我已经购买了三种不同的无线 USB 设备,它们都声称能够完全满足我的需求。其中两个使用 WUSB 协议(protocol),第三个使用精简的 802.11g 协议(protocol)。以下三个是设备:
在运行测试时,只有具有 802.11g 功能的设备 (Gefen) 才能流式传输任何视频,并且它有大量的帧率损失。所以,我设计了一个测试,我可以在其中实际收集一些硬数据。我的发现很有趣。
我没有一路开车去商店购买网络摄像头,因为我拥有的大多数东西都集成了它们,我选择借助 DroidCam 应用程序将我的 Droid Incredible 变成网络摄像头。我设置了 TCP 端口转发并在 Windows 上设置了客户端。然后我使用 Advanced USB Port Monitor 在用电线直接连接到计算机时获得基线带宽测量。它的平均速度约为 10.05 Mbits/s。然后我将 200 MB 的文件放在我的 Droid 上,复制了这个文件,并进行了测量。它的平均速度约为 37.76 Mbits/s。然后我切换到 Gefen 设备并运行相同的测试。 DroidCam 测试的平均运行速度约为 1.05 Mbits/s,文件传输速率平均为 13.36 Mbits/s。虽然我预料到无线网络固有的速度会下降,但我并没有预料到会有那么大的下降。
如上所述,我无法让 Belkin 或 IOGear 集线器传输任何视频(也用其他视频源进行测试以确保它不是我的 Droid),但它们的文件传输速率实际上比格芬。 IOGear 集线器的平均时钟频率为 19.56 Mbits/s,Belkin 的时钟频率为 17.28 Mbits/s。
问题:这就是算法标签发挥作用的地方。哪些算法用于复制文件与流视频,有没有办法使用“文件复制”算法代替视频流?从文件复制结果来看,无线设备有足够的带宽来处理视频流。我觉得我只是没有利用正确的资源,可以这么说。
如有任何帮助,我们将不胜感激!
最佳答案
复制文件和流式传输视频有很大不同。
一般来说,流式视频会使用UDP协议(protocol),(用户数据报协议(protocol)),它是一种无连接协议(protocol)。这意味着没有连接的“状态”,消息是“发送后忘记”的。如果由于某种原因数据包没有被正确接收,那么你就倒霉了,主机将转移到下一个数据包。
另一方面,文件共享通常使用 TCP 协议(protocol)完成,这是一种面向连接的协议(protocol)。这意味着两台主机之间正在就传输的当前状态进行通信。当主机通过 TCP 发送消息时,它不仅发送消息,还发送消息的 HASH,以便其他主机可以对数据包有效负载应用相同的哈希算法,并确认来自数据包的有效负载是正确的。实际上是要发送的有效载荷(并且无论出于何种原因都没有受到损害)。如果哈希值不匹配,则重新发送消息。一般来说,像这样的算法在流式视频中的效率要低得多,因为要进行更多的计算和传输。
至于这些实现,我建议阅读 UDP 和 TCP 实现。
关于algorithm - 视频流和文件传输之间的区别,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/6116876/
我正在用 symfony2 编写应用程序,但我遇到了视频流问题。 如果一个 Action 需要很长时间才能执行 - 例如 1 分钟,整个应用程序将被卡住(当在第二个选项卡中打开时)并且必须等待该执行结
我正在用 symfony2 编写应用程序,但我遇到了视频流问题。 如果一个 Action 需要很长时间才能执行 - 例如 1 分钟,整个应用程序将被卡住(当在第二个选项卡中打开时)并且必须等待该执行结
我正在尝试用视频流做一个应用程序,现在我只能从服务器向客户端发送一张图像。当我尝试在客户端发送不止一张图像时,我收到以下错误:“参数无效。”在 pictureBox1.Image = new Bitm
我正在使用 mediaViews 和 html5 在我们的 cakephp 网站上流式传输视频截屏。我正在为播放器使用 videojs,但遇到了一些问题: 不会在 safari/ipad/iphone
我已经安装了fluent-ffmpeg和ffmpeg-static以将流转换为HTML可复制的视频。如何使用这些软件包在客户端中显示流? 服务器端( main.js ): const { app, B
我在我的应用程序中实现了 TTS(文本转语音)功能。一切都很顺利,但现在我遇到了一个无法找到解决方案的问题。 基本上,我在激活 TTS 功能之前获得音频焦点。在实际的应用程序中,当我这样做时音乐就会停
我已经执行了开源社区链接发布的 AudioPlayer.java 示例 Audio Player Tutorial 我得到以下异常 Exception in thread "main" java.la
有什么方法可以在iOS原生App中通过URL播放无法下载或保存到本地的视频流。我想让用户观看视频,但他不能在本地下载或保存视频(通过第 3 方下载器应用程序)。 在 MPMoviePlayerCont
我正在开发用于网络吞吐量测试的点对点视频流。两个对等点之间的网络支持低比特率传输。 我使用 OpenCV 为视频流制作了简单的 python 程序。 该程序从网络摄像头抓取视频帧并将其编码为 JPEG
我正在我的应用程序中流式传输实时视频。我有一个 .m3u8 链接,它在 vlc 播放器中完美运行。但是当我在我的应用程序中播放这个流时,视频的可视化被破坏了(见截图)。有谁知道,这可能是什么原因造成的
好的。因此,有数十亿种不同的 Android 设备。我有一个视频流服务,非常适用于 iOS。我的应用程序具有实时视频功能和保存的视频剪辑播放功能(也可以流式传输到设备)。我在不同的 Android 设
我有一个屏幕共享应用程序 (WebRTC)。一个用户想与另一个用户共享他的屏幕。就像一个应用程序在用户 1 机器上运行而另一个应用程序在用户 2 机器上运行。用户 1 想要共享他的屏幕,现在如何在用户
我正在尝试提供即时转码的视频。不幸的是,这意味着寻求不起作用。我假设这是因为浏览器不知道视频有多长,因此无法正确显示搜索栏。 有谁知道是否可以对视频的时长进行硬编码? 我想到的另一个选择可能是创建我自
在将解复用的 h264 解码输出发送到 gstreamer 管道中的 autovideosink 之前,是否可以在两者之间提供一些延迟。如果是这样,任何人都可以发布示例管道来做到这一点。 我使用的管道
一直在把我的头发拉出来,这本来应该是一项快速而简单的任务。 我有一个自托管的 WCF 服务,我需要在其中实现实时视频转码,转码本身不是问题,使用 FFMpeg 到本地临时文件。 我的代码的快速示例;
我想在 C# 应用程序和浏览器之间建立视频流。 我使用 Websockets 进行通信。 视频源是网络摄像头。 我可以请求单个 PNG 帧,但速度太慢了。 websocket 服务器( Ratchet
关闭。这个问题是opinion-based .它目前不接受答案。 想要改进这个问题? 更新问题,以便 editing this post 可以用事实和引用来回答它. 关闭 9 年前。 Improve
是否可以在 lync 2010 或 2013 中捕获 lync session 的视频流?我已经在我们的实验室中运行了测试版。 UCMA 为 AudioVideoFlow 提供了钩子(Hook),但似
我有一个 ffmpeg 命令,它接收帧流并输出 ogg 视频。如何从另一个文件中添加音频? ffmpeg -f rawvideo -pix_fmt bgr24 -s WIDTHxHEIGHT -r 3
我正在使用全息镜头,并且我正在尝试保存具有可用世界/投影矩阵的视频流。我一直在尝试拍摄一系列照片并保存数据,但我找不到保存图像和矩阵的方法。 保存到磁盘时,没有获取照片捕获帧(包含矩阵数据)的选项,保
我是一名优秀的程序员,十分优秀!