- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我正在尝试在 Android 设备上显示 H.264 编码的 rtsp 视频。流来自树莓派,使用 vlc 编码 /dev/video1
这是一个“Pi NoIR 相机板”。
vlc-wrapper -vvv v4l2:///dev/video1 --v4l2-width $WIDTH --v4l2-height $HEIGHT --v4l2-fps ${FPS}.0 --v4l2-chroma h264 --no-audio --no-osd --sout "#rtp{sdp=rtsp://:8000/pi.sdp}" :demux=h264 > /tmp/vlc-wrapper.log 2>&1
final MediaPlayer mediaPlayer = new MediaPlayer();
mediaPlayer.setDisplay(holder);
try {
mediaPlayer.setDataSource(url);
mediaPlayer.prepare();
IOException
.当我查看日志时,我看到类似的行
06-02 16:28:05.566 W/APacketSource( 316): Format:video 0 RTP/AVP 96 / MIME-Type:H264/90000
06-02 16:28:05.566 W/MyHandler( 316): Unsupported format. Ignoring track #1.
06-02 16:28:05.566 I/MyHandler( 316): SETUP(1) completed with result -1010 (Unknown error 1010)
libstagefright/rtsp
来源,似乎意味着
ASessionDescription::getDimensions
调用
APacketSource::APacketSource
构造函数失败。这似乎不应该发生,因为 VLC 当然知道要输出什么尺寸:
[0x1c993a8] v4l2 demux debug: trying specified size 800x600
[0x1c993a8] v4l2 demux debug: Driver requires at most 262144 bytes to store a complete image
[0x1c993a8] v4l2 demux debug: Interlacing setting: progressive
[0x1c993a8] v4l2 demux debug: added new video es h264 800x600
ASessionDescription::getDimensions
正在寻找
framesize
中的属性(看似格式良好)
DESCRIBE
结果
06-02 16:28:05.566 I/MyHandler( 316): DESCRIBE completed with result 0 (Success)
06-02 16:28:05.566 I/ASessionDescription( 316): v=0
06-02 16:28:05.566 I/ASessionDescription( 316): o=- 15508012299902503225 15508012299902503225 IN IP4 pimple
06-02 16:28:05.566 I/ASessionDescription( 316): s=Unnamed
06-02 16:28:05.566 I/ASessionDescription( 316): i=N/A
06-02 16:28:05.566 I/ASessionDescription( 316): c=IN IP4 0.0.0.0
06-02 16:28:05.566 I/ASessionDescription( 316): t=0 0
06-02 16:28:05.566 I/ASessionDescription( 316): a=tool:vlc 2.0.3
06-02 16:28:05.566 I/ASessionDescription( 316): a=recvonly
06-02 16:28:05.566 I/ASessionDescription( 316): a=type:broadcast
06-02 16:28:05.566 I/ASessionDescription( 316): a=charset:UTF-8
06-02 16:28:05.566 I/ASessionDescription( 316): a=control:rtsp://192.168.1.35:8000/pi.sdp
06-02 16:28:05.566 I/ASessionDescription( 316): m=video 0 RTP/AVP 96
06-02 16:28:05.566 I/ASessionDescription( 316): b=RR:0
06-02 16:28:05.566 I/ASessionDescription( 316): a=rtpmap:96 H264/90000
framesize
属性。因此我的问题:
ASessionDescription::getDimensions
称呼? (stagefright 真的只支持 H.263 流媒体吗?)MediaPlayer
文档说 -1010 是
MEDIA_ERROR_UNSUPPORTED :“比特流符合相关编码标准或文件规范,但媒体框架不支持该功能。”这让我想知道问题是否是“标准”渐进式下载问题。即,
Supported Media Formats说
For video content that is streamed over HTTP or RTSP [in a] MPEG-4 [container] the
moov
atom must precede anymdat
atoms, but must succeed theftyp
atom
moov
原子最后。
moov
或 ftyp
vlc 源中的原子。 (我被告知 vlc 只是在这里进行流式传输;实际的 H264 内容来自相机驱动程序。)moov
或 ftyp
https://github.com/raspberrypi 中的原子linux 或 userland 分支。 (不过,也许我只是在寻找错误的东西。)moov
的 mp4 文件之前 mdat
,但当然 vlc 可以在这里进行一些转码。 moov
的 FOURCC 宏。和
ftyp
modules/mux/mp4.c
中的原子,这很快导致了
--sout-mp4-faststart
(和
--no-sout-mp4-faststart
)开关......没有任何区别。
MediaCodec
无论我传递给
MediaCodec.createByCodecName() 平板电脑上的三个 H264 编解码器中的哪一个,都不会在我的表面上显示视频,当我查看 RTP 负载时,我并不太惊讶:我没有看到
NAL sync pattern任何数据包中的任何位置。
21 9A __ 22 FF
开头。 (通常)或偶尔
3C 81 9A __ 22 FF
,其中 __ 似乎总是一个偶数,每个数据包增加 2。我不认识这种模式 - 是吗?
最佳答案
经过大量的死胡同后,我可以在 Android SurfaceView
上显示 H264 RTSP 流.这个答案只是一种答案,因为我仍然无法解决我原来的三个问题,但即使充满了错误和快捷方式,我的 75K apk 还是比 Android 的 Vlc 或 osmo4 播放器好得多:它有子- 秒延迟(至少当发送方和接收方在同一个 wifi 路由器上时!)并填充 SurfaceView
.
一些要点,以帮助任何尝试做类似事情的人:
MediaCodec.queueInputBuffer()
的所有输入缓冲区必须以 00 00 01 sync pattern 开头. configure()
和 start()
立即编解码器 - 但在您看到 SPS(NALU 代码 7)和 PPS(NALU 代码 8)数据包之前,不要将任何“正常”输入缓冲区排队。 (这些可能不是 0x67 和 0x68 - “nal_ref_idc”位应该是非零的,但不一定是 11。Fwiw,vlc
似乎总是给我 01。)queueInputBuffer()
.特别是,不要尝试将它们放在附加到 MediaFormat
的“csd-0”缓冲区中。 ! codec.flush()
!只需跳过部分帧,并且在下一个完整帧之前不要排队缓冲区。 关于android - 为什么我在使用 Android MediaPlayer 读取 H.264 编码的 rtsp 流时收到 "Unsupported format"错误?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/24005714/
我最近在/ drawable中添加了一些.gifs,以便可以将它们与按钮一起使用。这个工作正常(没有错误)。现在,当我重建/运行我的应用程序时,出现以下错误: Error: Gradle: Execu
Android 中有返回内部存储数据路径的方法吗? 我有 2 部 Android 智能手机(Samsung s2 和 s7 edge),我在其中安装了一个应用程序。我想使用位于这条路径中的 sqlit
这个问题在这里已经有了答案: What's the difference between "?android:" and "@android:" in an android layout xml f
我只想知道 android 开发手机、android 普通手机和 android root 手机之间的实际区别。 我们不能从实体店或除 android marketplace 以外的其他地方购买开发手
自Gradle更新以来,我正在努力使这个项目达到标准。这是一个团队项目,它使用的是android-apt插件。我已经进行了必要的语法更改(编译->实现和apt->注释处理器),但是编译器仍在告诉我存在
我是android和kotlin的新手,所以请原谅要解决的一个非常简单的问题! 我已经使用导航体系结构组件创建了一个基本应用程序,使用了底部的导航栏和三个导航选项。每个导航选项都指向一个专用片段,该片
我目前正在使用 Facebook official SDK for Android . 我现在正在使用高级示例应用程序,但我不知道如何让它获取应用程序墙/流/状态而不是登录的用户。 这可能吗?在那种情
我在下载文件时遇到问题, 我可以在模拟器中下载文件,但无法在手机上使用。我已经定义了上网和写入 SD 卡的权限。 我在服务器上有一个 doc 文件,如果用户单击下载。它下载文件。这在模拟器中工作正常但
这个问题在这里已经有了答案: What is the difference between gravity and layout_gravity in Android? (22 个答案) 关闭 9
任何人都可以告诉我什么是 android 缓存和应用程序缓存,因为当我们谈论缓存清理应用程序时,它的作用是,缓存清理概念是清理应用程序缓存还是像内存管理一样主存储、RAM、缓存是不同的并且据我所知,缓
假设应用程序 Foo 和 Eggs 在同一台 Android 设备上。任一应用程序都可以获取设备上所有应用程序的列表。一个应用程序是否有可能知道另一个应用程序是否已经运行以及运行了多长时间? 最佳答案
我有点困惑,我只看到了从 android 到 pc 或者从 android 到 pc 的例子。我需要制作一个从两部手机 (android) 连接的 android 应用程序进行视频聊天。我在想,我知道
用于使用 Android 以编程方式锁定屏幕。我从 Stackoverflow 之前关于此的问题中得到了一些好主意,并且我做得很好,但是当我运行该代码时,没有异常和错误。而且,屏幕没有锁定。请在这段代
文档说: android:layout_alignParentStart If true, makes the start edge of this view match the start edge
我不知道这两个属性和高度之间的区别。 以一个TextView为例,如果我将它的layout_width设置为wrap_content,并将它的width设置为50 dip,会发生什么情况? 最佳答案
这两个属性有什么关系?如果我有 android:noHistory="true",那么有 android:finishOnTaskLaunch="true" 有什么意义吗? 最佳答案 假设您的应用中有
我是新手,正在尝试理解以下 XML 代码: 查看 developer.android.com 上的文档,它说“starStyle”是 R.attr 中的常量, public static final
在下面的代码中,为什么当我设置时单选按钮的外观会发生变化 android:layout_width="fill_parent" 和 android:width="fill_parent" 我说的是
很难说出这里要问什么。这个问题模棱两可、含糊不清、不完整、过于宽泛或夸夸其谈,无法以目前的形式得到合理的回答。如需帮助澄清此问题以便重新打开,visit the help center . 关闭 9
假设我有一个函数 fun myFunction(name:String, email:String){},当我调用这个函数时 myFunction('Ali', 'ali@test.com ') 如何
我是一名优秀的程序员,十分优秀!