- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
显然有一种方法可以做到这一点,因为很多应用程序已经在这样做 - NetCamViewer 和 iCamviewer 仅举一个例子。
我搜索了又搜索,但没有找到任何有值(value)的东西来提示如何完成此操作。我伸出手希望有人能给我一个线索。
我正在尝试连接到支持 RTSP 协议(protocol)的视频监控摄像头 (Y-CAM),并显示来 self 的 iPhone/iPad 应用程序的视频。摄像头有一个 IP 地址,我可以通过网络浏览器和在我的 Mac 上运行的 Quicktime 查看视频。问题是 iOS 不支持 RSTP,因此即使尝试在 iPad 上使用 Safari 进行连接也无法正常工作。
我看过有人在尝试使用Live5555,但我还没有看到一篇文章描述它是否已经成功完成以及如何完成。
另一种方法是在服务器上捕获 RTSP 流,将其转换为 HTTP 直播流,然后从 iOS 连接到 HTTP 直播流。不幸的是,事实证明这并不像听起来那么容易。
我更愿意像我见过的其他应用程序那样直接进入相机。如果必须的话,RTSP to Live 是一个退路。
非常感谢任何提示。谢谢!
最佳答案
这是错误的 :) 或者没有必要(另一种方法是在服务器上捕获 RTSP 流,将其转换为 HTTP 直播流,然后从 iOS 连接到 HTTP 直播流。不幸的是,这还没有被证明是听起来很简单。)
你应该使用 ffmpeg 库,因为这个库可以连接任何流媒体服务器(支持 rtsp、mms、tcp、udp、rtmp ...),然后将图片绘制到屏幕上..(对于绘图,你可以使用 opengles 或 uiimage也有效)
首先,使用avformat_open_input连接到你的ip地址然后使用 avcodec_find_decoder & avcodec_open2 找到编解码器并打开它们(你应该为音频和视频调用它们)
然后,在一个 while 循环中使用 av_read_frame 方法从服务器读取数据包当你得到帧时,如果它是音频然后将它发送到 AudioUnit 或 AudioQueue,如果是视频,则使用 sws_scale 方法将其从 yuv 格式转换为 rgb 格式,并将图片绘制到屏幕上。
就这些。
再看看这个包装器(http://www.videostreamsdk.com),它是用 ffmpeg 库编写的,支持 iOS
关于ios - 如何在 iOS 中显示来自 IP Camera/CCTV 的 RTSP,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/15063720/
我在 Android 中使用相机时遇到问题。 在 API 25 Nougat 7.1.1 SDK 上进行开发。最小目标 SDK 设置为 15。 每次调用时都会抛出错误: Camera camera =
在我尝试过的所有手机上,包括带有 API 2.3.7 和 4.0 的 Galaxy Nexus,在调用 takePicture 方法后表面 View 更改为拍摄的图像,即“图像查看”。 我已经在这些平
我正在尝试在 Flutter 中的相机预览上显示 CustomPaint 元素。现在,CustomPaint 元素显示在相机预览下方。我正在使用 Flutter camera plugin显示相机预览
我有一个自定义相机应用程序,它在 SurfaceView 上预览相机视频输出并尝试拍照,照片应该由“xzing”扫描仪 API 处理以解码图像中的任何条形码。 我的应用程序预览正确并且没有抛出任何错误
我已经实现了使用 Android MediaRecorder 在后台录制音频,如果录音正在进行并且用户打开了 native 摄像头来录制视频,它会提供 Camera Error "Can't Conn
我在浏览相机脚本时遇到了声明术语 new Camera camera; 我想知道这是做什么的。它是在创建一个实例吗?让我感到困惑的是脚本已经附加到 Inspector 中的相机对象。那么为什么需要创建
我使用了我的 Fabric 服务,并在大多数运行我的应用程序的设备上发现了这个错误。 错误是这样的: Fatal Exception: java.lang.NullPointerException A
private static final int SENSOR_ORIENTATION_DEFAULT_DEGREES = 90; private static final int SENSOR_OR
我正在开发一个基本的自定义相机应用这些是我的依赖 // CameraX core library dependency implementation "androidx.camera:camera-c
我正在为索尼相机制作一个跟焦应用程序。我的应用程序需要能够设置焦点标记并调用它们。有很多功能可以在 Sony Camera API 上进行自动对焦,但我希望能够手动将焦点设置为给定的绝对值。有没有办法
我已经浏览了 Nest 开发人员网站,但找不到与相机相关的任何内容。我可以找到很多关于恒温器和烟雾/一氧化碳警报器的重要信息,但没有关于相机的信息。 特别是,我正在寻找如何获取视频 URL、如何获取/
关闭。这个问题需要details or clarity .它目前不接受答案。 想改进这个问题吗? 通过 editing this post 添加细节并澄清问题. 关闭 8 年前。 Improve t
我使用 create-react-native-app (CRNA) 创建了一个 RN 项目。我想使用expo提供的Camera API。为此,我只是复制了此处的示例 https://docs.exp
我想让我的相机跟随移动实体的第一人称视角。我不相信 trackedEntity 将适用于此用例,因为我不想查看实体,但我想查看 从它。我还希望用户能够使用鼠标相对于移动实体转动相机(例如,从移动平面的
我有一个跟进问题 Android Camera Server Died and Camera ERROR 100 我的代码中出现了类似的错误。这个错误出现在我们随机运行许多应用程序的自动化测试中。很长
我正在尝试实现与 Facebook 或 Instagram 相同的功能: 即时预览相机拍摄的图像 此时,调用此函数时,我的拍摄已正确拍摄: takePicture = async function()
我想给 React native Camera 添加水印。每当我点击/拍摄图像时,应该保存带有水印的图像。 最佳答案 我用了react-native-image-marker它对我有用。 关于reac
虽然索尼向客户挑逗新相机型号(UMC-R10C、UMC-S3C)并提到 API 访问和 USB 连接(而不是 wifi),但索尼相机远程 API 目前只提到 wifi。有没有关于如何使用这些即将推出的
我正在尝试使用以下代码在我的 xamarin android 应用程序中使用相机功能。 Intent intent = new Intent(MediaStore.ActionImageCapture
我构建了一个人脸检测应用程序,我从 onPreviewFrame 获取帧,进行人脸检测,然后在 surfaceView 上方的 Canvas 上绘制一个圆圈。问题是当 Camera.StartPrev
我是一名优秀的程序员,十分优秀!