- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我想编写 MJPEG 图片互联网流查看器。我认为使用套接字获取 jpeg 图像不是很难的问题。但我想知道如何进行准确的流式传输。
while (1)
{
get_image()
show_image()
sleep (SOME_TIME) // how to make it accurate?
}
任何建议都会很棒。
最佳答案
为了准确,有两种可能:
使用流媒体服务器的帧率。在这种情况下,客户端需要保持相同的帧率(每次获取帧时计算,然后使用反馈显示和休眠一段可变的时间:如果计算出的帧率高于服务器上的 -> 休眠更多;如果较低-> 少睡;然后,客户端的帧率将围绕服务器的原始值漂移)。可以在流连接初始化时从服务器接收(当你得到图片大小和其他参数时),也可以配置。
实际上,最准确的方法是对每一帧使用来自服务器的时间戳(它要么由多路分解器从文件中获取,要么在相机设备的情况下在图像传感器驱动程序中生成)。如果 MJPEG 被打包到 RTP 流中,这些时间戳已经在 RTP 头中。因此,客户端的任务很简单:使用根据时间偏移、当前时间戳和时基计算的时间来显示图片。
更新对于第一个解决方案:
time_to_sleep = time_to_sleep_base = 1/framerate;
number_of_frames = 0;
time = current_time();
while (1)
{
get_image();
show_image();
sleep (time_to_sleep);
/* update time to sleep */
number_of_frames++;
cur_time = current_time();
cur_framerate = number_of_frames/(cur_time - time);
if (cur_framerate > framerate)
time_to_sleep += alpha*time_to_sleep;
else
time_to_sleep -= alpha*time_to_sleep;
time = cur_time;
}
,其中 alpha 是要使用的反馈 (0.1..0.5) react 性的常数参数。
但是,最好为输入图像组织队列,使显示过程更流畅。队列的大小可以参数化,可以是大约 1 秒的显示时间,即在数值上等于帧率。
关于c - MJPEG 互联网流媒体 - 准确的 fps,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/3425659/
Microsoft 声明 Edge 浏览器原生支持 MJPEG 多部分流。 ( https://dev.modern.ie/platform/status// ) 以下 HTML 在所有 web-ki
我在保存时遇到问题 MJPEG流到文件。 当我直播时 MJPEG使用这样的管道: gst-launch filesrc location=thirdmovie640x360.mp4 ! decodeb
我正在从我的相机接收 MJPEG 流。当我使用十六进制编辑器查看视频数据时,它似乎不包含任何流信息。我只看到一个又一个的原始 JPEG,但没有关于帧率等的信息。 MJPEG 缺少任何元信息是正常的还是
我已经实现了 Android and MJPEG 并且还实现了异步和认证来运行它,这就是提到的 here .现在我已经设法运行 jpeg 视频流,但问题是它在运行流时一直闪烁。它不断地打开和关闭。我认
我正在尝试在 iOS 应用程序中显示 MJPEG 流。为此,我需要在收到新图像后立即使用新图像刷新 imageView。需要将流中的图像分开。 是否有一些明确的开始和结束标记/字节用于将各个图像分开?
你能帮我如何将我的视频流式传输到 iOS 应用程序吗?我使用了 UIWebView 但视频没有变化。有什么解决办法吗。例如这个流。 http://80.32.204.149:8080/mjpg/vid
除 IE 之外的现代浏览器处理 MJPEG ( Motion JPEG )。 Here是一个例子 fiddle 。 我可以检测到对 MJPEG 的支持吗?我已经看过 Modernizr徒劳无功。 最佳
我想从 IP 摄像机(通过 RTSP)接收 JPEG 图像。为此,我在 OpenCV 中尝试了 cvCreateFileCapture_FFMPEG。但是ffmpeg似乎对流媒体的MJPEG格式有一些
我需要从 IP 摄像机获取 mjpeg 流,有人知道正确的方法吗?我google了一下,我找到了这个例子 http://www.anddev.org/mjpeg_on_android_anyone-t
我有一个每秒提供 30 帧 mjpeg 的网络摄像机。我想将这些帧记录到 mp4 文件中。我已经有一个将其记录为 avi 文件的库,但它不是首选。我尝试在录制 avi 后将视频转换为 mp4,但速度有
我有一堆 mov/H.264 文件,我想将它们编码成 mov/MJPEG。但是,我得到的输出质量非常低。这是我尝试过的: ffmpeg -i a.mov -an -crf 11 -preset slo
我正在使用 FFMpeg 来解码 Mjpeg 流。 最近我遇到了来自 FFMpeg 的访问冲突异常,经过调查,我发现由于网络数据包丢失,我正在向 FFMpeg 传递一个可能有“间隙”的帧。 FFMpe
我在从 ip-camera 解码 RTP/MJPEG 流时遇到了问题。 如 rfc2435 所述,量化表(对于 Q 值 1 <= Q <= 99)应根据这些默认表计算: /* * Table K.1
我有一堆 mov/H.264 文件,我想将它们编码为 mov/MJPEG。但是我得到的输出质量非常低。这是我尝试过的: ffmpeg -i a.mov -an -crf 11 -preset slow
我有一个来自 IP cam 的传入 mjpeg 流。 现在我可以使用 ffmpeg 和 openGL 显示它,但是当我尝试将所有传入的流保存到文件中并稍后播放时,播放器(VLC)无法打开文件。 有人告
我正在尝试制作一个 mjpeg 流媒体。帧之前的前 5 个字节给出了帧的大小。然后我可以提取框架。我需要检查我是否获得了正确的框架。我正在尝试将帧写入 .jpeg 文件;那是行不通的。我这样做正确吗?
为了测试处理 ip 摄像机流(例如 mjpeg)的软件,我想从原始摄像机中捕获一个短序列,然后将此记录循环流式传输,就好像它来自 ip 摄像机一样。它应该基于命令行以简化自动化集成测试。 我已经想通了
Android MediaPlayer是否支持MJPEG格式 1 path = "http://cif12.nfreeway.gov.tw/live-vi
我知道 Android 本身不支持 MJPEG,但是否有任何可用的 jar 文件/驱动程序可以添加到项目中以使其成为可能? 最佳答案 有一个 View 可用于显示 MJPEG 流: Android a
我目前正在我的树莓派上设置一个小型 wifi 控制的汽车,并进行直播。我正在从在不同端口的 pi 上运行的服务器获取流,我正在使用简单的 img 标签嵌入 video.mjpeg 文件。流工作正常,但
我是一名优秀的程序员,十分优秀!