gpt4 book ai didi

stream - WebRtc VP8 自定义视频

转载 作者:行者123 更新时间:2023-12-02 03:31:53 30 4
gpt4 key购买 nike

我想通过网络将 RGB 帧(实时)数据作为视频视频流传输到浏览器(chrome/firefox)中。

所以我完成了 rgb -> yuv ->yv12 -> vp8 转换。我可以在本地播放vp8视频,看起来不错。

现在我需要能够将这些数据提供给 webrtc,以便其他“客户端”可以看到它。

现在这可行吗?

我打算将 vp8 包裹在 webm 视频文件中,但不写入实际文件长度,因为我不知道长度,因为它是实时流,并在浏览器上创建一个标签并开始提供数据。 (我之前用 Theora 做过这个,“假装流式传输,确实有点慢,而且是 TCP,但它工作时有延迟)。

或者我将把数据提供给 webrtc。我什至不知道 api 是否允许这样的事情。我可能需要稍微破解一下。

回顾:进程 A 创建一个 NxM rgb 视频并将其写入缓冲区。进程 B 通过 IPC 读取该缓冲区并将其编码为 VP8 ,进程 B 将其发送到 webm 或 webRtc 中带有 VP8 的浏览器。

最佳答案

据我发现研究相关情况,这还不可能。视频只能来自系统上配置的设备(网络摄像头、音频等)。我相信我不久前读过的拟议规范草案是有可能的,但我们还没有做到这一点。我知道他们正在努力允许从网络音频 API 进行访问,但我不确定当前的状态。

关于stream - WebRtc VP8 自定义视频,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/19188951/

30 4 0