gpt4 book ai didi

ios - 如何在 iOS 中显示来自 IP Camera/CCTV 的 RTSP

转载 作者:可可西里 更新时间:2023-11-01 03:08:17 31 4
gpt4 key购买 nike

显然有一种方法可以做到这一点,因为很多应用程序已经在这样做 - NetCamViewer 和 iCamviewer 仅举一个例子。

我搜索了又搜索,但没有找到任何有值(value)的东西来提示如何完成此操作。我伸出手希望有人能给我一个线索。

我正在尝试连接到支持 RTSP 协议(protocol)的视频监控摄像头 (Y-CAM),并显示来 self 的 iPhone/iPad 应用程序的视频。摄像头有一个 IP 地址,我可以通过网络浏览器和在我的 Mac 上运行的 Quicktime 查看视频。问题是 iOS 不支持 RSTP,因此即使尝试在 iPad 上使用 Safari 进行连接也无法正常工作。

我看过有人在尝试使用Live5555,但我还没有看到一篇文章描述它是否已经成功完成以及如何完成。

另一种方法是在服务器上捕获 RTSP 流,将其转换为 HTTP 直播流,然后从 iOS 连接到 HTTP 直播流。不幸的是,事实证明这并不像听起来那么容易。

我更愿意像我见过的其他应用程序那样直接进入相机。如果必须的话,RTSP to Live 是一个退路。

非常感谢任何提示。谢谢!

最佳答案

这是错误的 :) 或者没有必要(另一种方法是在服务器上捕获 RTSP 流,将其转换为 HTTP 直播流,然后从 iOS 连接到 HTTP 直播流。不幸的是,这还没有被证明是听起来很简单。)

你应该使用 ffmpeg 库,因为这个库可以连接任何流媒体服务器(支持 rtsp、mms、tcp、udp、rtmp ...),然后将图片绘制到屏幕上..(对于绘图,你可以使用 opengles 或 uiimage也有效)

首先,使用avformat_open_input连接到你的ip地址然后使用 avcodec_find_decoder & avcodec_open2 找到编解码器并打开它们(你应该为音频和视频调用它们)

然后,在一个 while 循环中使用 av_read_frame 方法从服务器读取数据包当你得到帧时,如果它是音频然后将它发送到 AudioUnit 或 AudioQueue,如果是视频,则使用 sws_scale 方法将其从 yuv 格式转换为 rgb 格式,并将图片绘制到屏幕上。

就这些。

再看看这个包装器(http://www.videostreamsdk.com),它是用 ffmpeg 库编写的,支持 iOS

关于ios - 如何在 iOS 中显示来自 IP Camera/CCTV 的 RTSP,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15063720/

31 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com