- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
因此,在我的应用程序中,我能够使用 GPUImage 对来自相机的视频显示效果(如模糊滤镜、高斯)。图书馆。
基本上,我(库)将从相机获取输入,获取原始字节数据,将其从 YUV 格式转换为 RGBA 格式,然后将效果应用于此图像并显示在 Surface
上GLSurfaceView
使用 OpenGL。最后,对于用户来说,它看起来像是应用了效果的视频。
现在我想使用 MediaCodec 将 Surface
的帧记录为视频API。
但是这个discussion表示我们无法将预定义的 Surface
传递给 MediaCodec
。
我在 bigflake 看到了一些样本他使用 MediaCodec.createInputSurface()
创建 Surface
但对我来说,Surface
来自 GLSurfaceView
。
那么,如何将 Surface
的帧录制为视频?
我将并行录制音频,使用 FFMPEG 合并该视频和音频,并作为应用了效果的视频呈现给用户。
最佳答案
您可以在 Grafika 中看到完整的示例.
特别是,“显示 + 捕获相机” Activity 将相机输出记录为 .mp4。它还demonstrates在 GL 着色器中应用一些简单的图像处理技术。它使用 GLSurfaceView
和复杂的舞蹈来保持记录跨越方向变化。
“使用 FBO 记录 GL 应用程序” Activity 可能也很有趣,它记录了 OpenGL ES 渲染的几种不同方式。它使用普通的 SurfaceView
并且更加直接。
关于android - 使用 MediaCodec 录制 Surface,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21525859/
我从 MediaCodec 的官方文档中阅读了以下内容: Raw audio buffers contain entire frames of PCM audio data, which is one
我设法将多个视频与音轨组合在一起,但是后来我意识到,如果将多个视频与其中一个没有音轨组合在一起,则必须为组合的音轨添加静音。 那么,我该怎么做呢?我应该对带时间戳的0填充的ByteBuffer进行静音
我想用MediaCodec和MediaExtractor完成一个简单的音视频播放器,但是在解码和渲染的时候发现很难控制和获取进度,比如MediaPlayer中的seekTo(),getCurrentP
各位, 我创建了一个使用 MediaCodec 和 MediaExtractor 类播放视频的应用程序。此应用程序基于 https://vec.io/posts/android-hardware-de
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 关于您编写的代码问题的问题必须在问题本身中描述具体问题 — 并且包括有效代码 以重现它。参见 SSC
我正在使用 MediaCodec API 将视频和音频编码为 mp4 文件。在单独的线程中编码的数据。有时在某些设备上,音频编码器会停止返回任何可用的输入缓冲区,因此 MediaMuxer 在尝试停止
我将 MediaExtractor 的输出传递到 MediaCodec 解码器,然后将解码器的输出缓冲区传递到编码器的输入缓冲区。我遇到的问题是,当它从编码器出来时,我需要将解码器输出的分辨率从 19
我正在研究一种算法,根据通常的 ExtractDecodeEditEncodeTest CTS test 在 MediaCodec 中将两个视频连接在一起,我对这部分代码特别感兴趣: outputSu
我在异步模式下使用 MediaCodec 类对来自相机预览的原始视频 (1080p) 进行编码。我使用 MediaCodec.BufferInfo.presentationTimeUs 参数读取演示时
我需要在每个视频帧上录制带有时间戳的视频。我在 cts 中看到了一个例子其中使用 InputSurace.java 和 OutputSurface.java 连接 Decoder 和 Encoder
我正在使用 MediaCodec 使用 Camera 的 setPreviewCallback 对视频进行编码。(我按照这个例子 Encoding H.264 from camera with And
我正在使用 MediaCodec 解码使用 ffmpeg 编码的 h264 数据包。当我用 ffmpeg 解码时,帧显示正常。但是,当我使用 MediaCodec 硬件解码器进行解码时,有时会在帧中间
我正在尝试使用 GPU 将效果应用于视频的帧,然后将这些帧重新编码为新的结果视频。 为了提高性能,我实现了以下流程: 有 3 个不同的线程,每个线程都有自己的 OpenGL 上下文。这些上下文的设置方
我正在尝试使用 MediaCodec 从视频中检索所有帧以进行图像处理,我正在尝试渲染视频并从 outBuffers 捕获帧但我无法从接收到的字节启动位图实例。 我尝试将它渲染到一个表面或什么都没有(
我想使用 MediaCodec 将 Surface 编码为 H.264。 使用 API 18,有一种方法可以通过调用 createInputSurface() 然后在该表面上绘制来对表面的内容进行编码
在 Android 4.4.2 中,我使用 MediaCodec 解码 mp3 文件。我正在使用 queueInputBuffer() 对输入的 mp3 编码帧进行排队,并使用 dequeueOutp
我正在尝试从文件中解码视频并使用 MediaCodec 将其编码为不同的格式在 API 级别 21 及更高版本(Android OS 5.0 Lollipop)中支持的新异步模式。 在诸如 Big F
我正在尝试使用 MediaCodec 和 MediaExtractor 实现视频的精确搜索。通过关注 Grafika 的 MoviePlayer ,我已经设法实现了前瞻性。但是我仍然有向后寻求的问题。
我正在尝试使用 MediaDecoder 类编写一个视频播放器,我遇到了一个问题,它阻碍了我的开发, 这是一段代码 extractor = new MediaExtractor(); extracto
我正在尝试将数据(h.264 原始 1080p)流式传输到 android 并将其渲染到表面 View 。问题是,如果我发送数据的速度超过 45fps,则解码器输出会像素化(输入索引和输出索引为 -1
我是一名优秀的程序员,十分优秀!