- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我们有一个 Android 应用程序可以将视频编码为 H264。在所有以前尝试过的 Android 设备上,它都会编码为我需要的基线配置文件。
在 Lenovo Yoga 10 上,编解码器是 OMX.MTK.VIDEO.ENCODER.AVC。这会将视频编码为 High Profile,这会给接收设备带来问题。
我正在使用 MediaCodec。似乎没有办法设置要使用的配置文件。
有什么办法吗?编解码器确实声称支持基线配置文件,但没有提供使用它的方法。是否有针对此的编解码器特定参数?
最佳答案
您可以尝试将 key profile
添加到您的 MediaFormat,值为 1
(OMX_VIDEO_AVCProfileBaseline
)。如果这样做,您可能还需要添加键 level
,其级别值也与您的分辨率相匹配(使用来自 OMX AVC 级别常量的值)。
虽然我不确定这个编解码器是否真的符合请求的值,但它可能值得一试。
参见https://android.googlesource.com/platform/frameworks/av/+/6ade04174/media/libstagefright/ACodec.cpp中的setupAVCEncoderParameters
函数有关设置过程的示例。它在输入参数中查找 profile
键(从您提供的 MediaFormat 复制),但如果存在,您还需要提供 level
参数,以及使用什么级别取决于您的分辨率。参见 https://android.googlesource.com/platform/frameworks/native/+/cde4b13a/include/media/openmax/OMX_Video.h对于常量值,您可以将其用于参数。
但是在检查配置文件和级别参数之后,它似乎也将配置文件覆盖到基线,而不管设置的是什么。因此,要么这些行已从您的设备中删除,要么编码器完全忽略了 h264type.eProfile
字段。
如果有人拥有更接近设备上实际使用的源代码树,那么检查它会更好。
有关如何为您的分辨率选择合适级别的示例,请查看 http://git.videolan.org/?p=x264.git;a=blob;f=encoder/set.c;h=1a40b71284 中的 x264_validate_levels
(但传递给 MediaFormat 的级别需要使用 OMX_VIDEO_AVCLEVELTYPE
常量表示)。
不确定这是否有帮助,但至少值得一试。
关于android - 使用 MediaCodec 和 MTK Codec 编码时选择 H264 Profile,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26257474/
我从 MediaCodec 的官方文档中阅读了以下内容: Raw audio buffers contain entire frames of PCM audio data, which is one
我设法将多个视频与音轨组合在一起,但是后来我意识到,如果将多个视频与其中一个没有音轨组合在一起,则必须为组合的音轨添加静音。 那么,我该怎么做呢?我应该对带时间戳的0填充的ByteBuffer进行静音
我想用MediaCodec和MediaExtractor完成一个简单的音视频播放器,但是在解码和渲染的时候发现很难控制和获取进度,比如MediaPlayer中的seekTo(),getCurrentP
各位, 我创建了一个使用 MediaCodec 和 MediaExtractor 类播放视频的应用程序。此应用程序基于 https://vec.io/posts/android-hardware-de
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 关于您编写的代码问题的问题必须在问题本身中描述具体问题 — 并且包括有效代码 以重现它。参见 SSC
我正在使用 MediaCodec API 将视频和音频编码为 mp4 文件。在单独的线程中编码的数据。有时在某些设备上,音频编码器会停止返回任何可用的输入缓冲区,因此 MediaMuxer 在尝试停止
我将 MediaExtractor 的输出传递到 MediaCodec 解码器,然后将解码器的输出缓冲区传递到编码器的输入缓冲区。我遇到的问题是,当它从编码器出来时,我需要将解码器输出的分辨率从 19
我正在研究一种算法,根据通常的 ExtractDecodeEditEncodeTest CTS test 在 MediaCodec 中将两个视频连接在一起,我对这部分代码特别感兴趣: outputSu
我在异步模式下使用 MediaCodec 类对来自相机预览的原始视频 (1080p) 进行编码。我使用 MediaCodec.BufferInfo.presentationTimeUs 参数读取演示时
我需要在每个视频帧上录制带有时间戳的视频。我在 cts 中看到了一个例子其中使用 InputSurace.java 和 OutputSurface.java 连接 Decoder 和 Encoder
我正在使用 MediaCodec 使用 Camera 的 setPreviewCallback 对视频进行编码。(我按照这个例子 Encoding H.264 from camera with And
我正在使用 MediaCodec 解码使用 ffmpeg 编码的 h264 数据包。当我用 ffmpeg 解码时,帧显示正常。但是,当我使用 MediaCodec 硬件解码器进行解码时,有时会在帧中间
我正在尝试使用 GPU 将效果应用于视频的帧,然后将这些帧重新编码为新的结果视频。 为了提高性能,我实现了以下流程: 有 3 个不同的线程,每个线程都有自己的 OpenGL 上下文。这些上下文的设置方
我正在尝试使用 MediaCodec 从视频中检索所有帧以进行图像处理,我正在尝试渲染视频并从 outBuffers 捕获帧但我无法从接收到的字节启动位图实例。 我尝试将它渲染到一个表面或什么都没有(
我想使用 MediaCodec 将 Surface 编码为 H.264。 使用 API 18,有一种方法可以通过调用 createInputSurface() 然后在该表面上绘制来对表面的内容进行编码
在 Android 4.4.2 中,我使用 MediaCodec 解码 mp3 文件。我正在使用 queueInputBuffer() 对输入的 mp3 编码帧进行排队,并使用 dequeueOutp
我正在尝试从文件中解码视频并使用 MediaCodec 将其编码为不同的格式在 API 级别 21 及更高版本(Android OS 5.0 Lollipop)中支持的新异步模式。 在诸如 Big F
我正在尝试使用 MediaCodec 和 MediaExtractor 实现视频的精确搜索。通过关注 Grafika 的 MoviePlayer ,我已经设法实现了前瞻性。但是我仍然有向后寻求的问题。
我正在尝试使用 MediaDecoder 类编写一个视频播放器,我遇到了一个问题,它阻碍了我的开发, 这是一段代码 extractor = new MediaExtractor(); extracto
我正在尝试将数据(h.264 原始 1080p)流式传输到 android 并将其渲染到表面 View 。问题是,如果我发送数据的速度超过 45fps,则解码器输出会像素化(输入索引和输出索引为 -1
我是一名优秀的程序员,十分优秀!