gpt4 book ai didi

android - 带 OpenGL 的 MediaRecorder Surface Input - 如果启用录音会出现问题

转载 作者:行者123 更新时间:2023-12-05 02:50:49 29 4
gpt4 key购买 nike

我想使用 MediaRecorder 而不是 MediaCodec 来录制视频,因为我们知道它非常易于使用。

我也想在录制的时候用OpenGL处理​​帧

然后我使用 Grafika 的 ContinuousCaptureActivity 示例中的示例代码来初始化 EGL 渲染上下文,创建 cameraTexture 并将其作为 Surface https://github.com/google/grafika/blob/master/app/src/main/java/com/android/grafika/ContinuousCaptureActivity.java#L392 传递给 Camera2 API

并从我们的 recorderSurface 创建 EGLSurface encodeSurface https://github.com/google/grafika/blob/master/app/src/main/java/com/android/grafika/ContinuousCaptureActivity.java#L418

等等(在 Grafika 示例中处理帧,一切都与示例代码中的 Grafika 代码相同)

然后当我开始录制时 (MediaRecorder.start()),如果未设置音频源,它可以录制视频

但是如果录音也开启了

mediaRecorder.setAudioSource(MediaRecorder.AudioSource.MIC)
...
mediaRecorder.setAudioEncoder(MediaRecorder.AudioEncoder.AAC)

然后最终视频的持续时间(长度)很长,无法真正播放。因此,当使用 Surface 作为输入并使用 GLES 添加和处理帧时,MediaRecorder 音频编码器会破坏一切

我不知道如何修复它。

这是我处理帧的代码(基于Grafika示例,几乎相同):

class GLCameraFramesRender(
private val width: Int,
private val height: Int,
private val callback: Callback,
recorderSurface: Surface,
eglCore: EglCore
) : OnFrameAvailableListener {
private val fullFrameBlit: FullFrameRect
private val textureId: Int
private val encoderSurface: WindowSurface
private val tmpMatrix = FloatArray(16)
private val cameraTexture: SurfaceTexture
val cameraSurface: Surface

init {
encoderSurface = WindowSurface(eglCore, recorderSurface, true)
encoderSurface.makeCurrent()

fullFrameBlit = FullFrameRect(Texture2dProgram(Texture2dProgram.ProgramType.TEXTURE_EXT))

textureId = fullFrameBlit.createTextureObject()

cameraTexture = SurfaceTexture(textureId)
cameraSurface = Surface(cameraTexture)
cameraTexture.setOnFrameAvailableListener(this)
}

fun release() {
cameraTexture.setOnFrameAvailableListener(null)
cameraTexture.release()
cameraSurface.release()
fullFrameBlit.release(false)
eglCore.release()
}

override fun onFrameAvailable(surfaceTexture: SurfaceTexture) {
if (callback.isRecording()) {
drawFrame()
} else {
cameraTexture.updateTexImage()
}
}

private fun drawFrame() {
cameraTexture.updateTexImage()

cameraTexture.getTransformMatrix(tmpMatrix)


GLES20.glViewport(0, 0, width, height)

fullFrameBlit.drawFrame(textureId, tmpMatrix)

encoderSurface.setPresentationTime(cameraTexture.timestamp)

encoderSurface.swapBuffers()

}

interface Callback {
fun isRecording(): Boolean
}
}

最佳答案

很可能您的时间戳不在同一时基中。媒体记录系统通常需要 uptimeMillis 中的时间戳时基,但许多相机设备在 elapsedRealtime 中生成数据时基。一个在设备处于深度 sleep 状态时计算时间,而另一个则不;重启设备的时间越长,差异就越大。

在您添加音频之前这并不重要,因为 MediaRecorder 的内部音频时间戳将以 uptimeMillis 为单位,而相机帧时间戳将以 elapsedRealtime 的形式出现。超过几分之一秒的差异可能会被视为不良的 A/V 同步;几分钟或更长时间只会把一切都搞砸。

当相机直接与媒体记录堆栈对话时,它会自动调整时间戳;因为您已将 GPU 放在中间,所以不会发生这种情况(因为相机不知道您的帧最终会到达那里)。

您可以通过 SENSOR_INFO_TIMESTAMP_SOURCE 检查相机是否使用 elapsedRealtime 作为时基.但无论如何,您有几个选择:

  1. 如果相机使用 TIMESTAMP_SOURCE_REALTIME,则在记录开始时测量两个时间戳之间的差异,并相应地调整您输入到 setPresentationTime 中的时间戳(delta = elapsedRealtime - uptimeMillis; timestamp = timestamp - delta;)
  2. 只需使用 uptimeMillis() * 1000000 作为 setPresentationTime 的时间。这可能会导致过多的 A/V 偏差,但很容易尝试。

关于android - 带 OpenGL 的 MediaRecorder Surface Input - 如果启用录音会出现问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63467704/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com