- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在开发一个应用程序,它使用 h.264 编码器将电影编码到图库和其他目标。此应用程序支持输出时的可变宽高比(1:1、2:3、3:2、16:9、3:4、4:3)。我使用表面输入进行 4.3 API 的输入/输出。
该应用程序在许多设备上运行正常(在 S3、摩托罗拉 G、Nexus 7 2012、摩托罗拉 X 上测试),但是,我在 Nexus 7 2013 上运行它时遇到了困难。
基本上,有些输出分辨率有效,有些则无效。 3:4 (720x960)、2:3 (720x1080) 和 16:9 (1280x720) 按预期工作,但其余(1:1 (960x960)、3:2 (1080x720) 和 4:3 (960x720))会产生像这样的输出:
http://imageshack.com/a/img811/7984/dtgh.png
我的猜测是,编码器中存在一些硬编码的值,该值将其输入表面视为具有与实际宽度不同的宽度 - 像素线似乎“未正确对齐”。但是,我不知道是什么原因导致这种情况以及如何解决它。
日志中没有错误,视频编码器编解码器在输出媒体格式时在日志中输出正确的表面宽度和高度。
更新:使用 360、720 或 1280 宽度编码时似乎没有问题,高度没有影响。我还没有找到任何其他低于 1280 的宽度。
update2:似乎还有更多可用的宽度:180、240、640、700。找不到它们之间的任何相关性。
最佳答案
我认为这与设备的芯片组有关。我的旧摩托罗拉 XT1058 也遇到同样的问题,它使用高通 Snapdragon S4 Pro,与 Nexus 7 相同的芯片组。
做了一些研究,我通过另一个答案发现,在较旧的高通设备中,YUV 数据需要在 2K 边界对齐,但我不明白如何在使用输入表面而不是 YUV 缓冲区时修复它。
有关高通对齐要求的声明,请参阅下一个接受的答案:
How to get stride and Y plane alignment values for MediaCodec encoder
我的解决方法是,对于较旧的设备,我将使用我知道可行的分辨率,这些分辨率可以通过使用 CamcorderProfile API 查询视频配置文件来获取。
主要问题是如何检测设备是否受到影响,因为 MediaCodec API 只能给出编解码器名称,而不能给出其版本。
关于android - Nexus 7 2013 mediacodec 视频编码器输出乱码,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/22579865/
我从 MediaCodec 的官方文档中阅读了以下内容: Raw audio buffers contain entire frames of PCM audio data, which is one
我设法将多个视频与音轨组合在一起,但是后来我意识到,如果将多个视频与其中一个没有音轨组合在一起,则必须为组合的音轨添加静音。 那么,我该怎么做呢?我应该对带时间戳的0填充的ByteBuffer进行静音
我想用MediaCodec和MediaExtractor完成一个简单的音视频播放器,但是在解码和渲染的时候发现很难控制和获取进度,比如MediaPlayer中的seekTo(),getCurrentP
各位, 我创建了一个使用 MediaCodec 和 MediaExtractor 类播放视频的应用程序。此应用程序基于 https://vec.io/posts/android-hardware-de
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 关于您编写的代码问题的问题必须在问题本身中描述具体问题 — 并且包括有效代码 以重现它。参见 SSC
我正在使用 MediaCodec API 将视频和音频编码为 mp4 文件。在单独的线程中编码的数据。有时在某些设备上,音频编码器会停止返回任何可用的输入缓冲区,因此 MediaMuxer 在尝试停止
我将 MediaExtractor 的输出传递到 MediaCodec 解码器,然后将解码器的输出缓冲区传递到编码器的输入缓冲区。我遇到的问题是,当它从编码器出来时,我需要将解码器输出的分辨率从 19
我正在研究一种算法,根据通常的 ExtractDecodeEditEncodeTest CTS test 在 MediaCodec 中将两个视频连接在一起,我对这部分代码特别感兴趣: outputSu
我在异步模式下使用 MediaCodec 类对来自相机预览的原始视频 (1080p) 进行编码。我使用 MediaCodec.BufferInfo.presentationTimeUs 参数读取演示时
我需要在每个视频帧上录制带有时间戳的视频。我在 cts 中看到了一个例子其中使用 InputSurace.java 和 OutputSurface.java 连接 Decoder 和 Encoder
我正在使用 MediaCodec 使用 Camera 的 setPreviewCallback 对视频进行编码。(我按照这个例子 Encoding H.264 from camera with And
我正在使用 MediaCodec 解码使用 ffmpeg 编码的 h264 数据包。当我用 ffmpeg 解码时,帧显示正常。但是,当我使用 MediaCodec 硬件解码器进行解码时,有时会在帧中间
我正在尝试使用 GPU 将效果应用于视频的帧,然后将这些帧重新编码为新的结果视频。 为了提高性能,我实现了以下流程: 有 3 个不同的线程,每个线程都有自己的 OpenGL 上下文。这些上下文的设置方
我正在尝试使用 MediaCodec 从视频中检索所有帧以进行图像处理,我正在尝试渲染视频并从 outBuffers 捕获帧但我无法从接收到的字节启动位图实例。 我尝试将它渲染到一个表面或什么都没有(
我想使用 MediaCodec 将 Surface 编码为 H.264。 使用 API 18,有一种方法可以通过调用 createInputSurface() 然后在该表面上绘制来对表面的内容进行编码
在 Android 4.4.2 中,我使用 MediaCodec 解码 mp3 文件。我正在使用 queueInputBuffer() 对输入的 mp3 编码帧进行排队,并使用 dequeueOutp
我正在尝试从文件中解码视频并使用 MediaCodec 将其编码为不同的格式在 API 级别 21 及更高版本(Android OS 5.0 Lollipop)中支持的新异步模式。 在诸如 Big F
我正在尝试使用 MediaCodec 和 MediaExtractor 实现视频的精确搜索。通过关注 Grafika 的 MoviePlayer ,我已经设法实现了前瞻性。但是我仍然有向后寻求的问题。
我正在尝试使用 MediaDecoder 类编写一个视频播放器,我遇到了一个问题,它阻碍了我的开发, 这是一段代码 extractor = new MediaExtractor(); extracto
我正在尝试将数据(h.264 原始 1080p)流式传输到 android 并将其渲染到表面 View 。问题是,如果我发送数据的速度超过 45fps,则解码器输出会像素化(输入索引和输出索引为 -1
我是一名优秀的程序员,十分优秀!