- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我正在使用 LLSimpleCamera 录制视频。我用后置摄像头录制的很好,但是当我切换到前置摄像头时,应用程序崩溃,报告的错误是
* Terminating app due to uncaught exception 'NSInvalidArgumentException', reason: '* -[AVAssetWriterInput appendSampleBuffer:] Media type of sample buffer must match receiver's media type ("soun")'
我已经尝试了很多 stackOverflow 帖子,但无法修复崩溃。谁能告诉我可能是什么问题?
最佳答案
关于ios - LLSimpleCamera : AVAssetWriterInput appendSampleBuffer crashing,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54358868/
无论选择哪种AVVideoWidthKey,AVVideoHeightKey,AVVideoCleanApertureWidthKey,AVVideoCleanApertureHeightKey,我的
我正在使用 AVAssetWriter 分别从 AVCaptureVideoDataOutput 和 AVCaptureAudioDataOutput 附加 CMSampleBuffer 来录制视频和
我正在尝试拍摄图像并将其转换为 Swift 中的视频文件。我能够让代码在 iOS 模拟器中运行,但它无法在实际设备上运行。当我尝试将像素缓冲区附加到 AVAssetWriterInput 时出错。我想
AVAssetWriterInput的readyForMoreMediaData是否在后台线程中更新?如果readyForMoreMediaData为NO,我可以在主线程中阻塞并等待直到该值变为YES
我正在使用 AVAssetWriterInput 从用户那里获取一个 mp3 文件,并通过电子邮件发送(仅限 DRM 免费)。我在使用 PCM 时让进程正常工作,但是当我尝试 mp3、m4a 或 ca
我尝试了以下两种将 UIImage 的像素缓冲区附加到 ASSETWriterInput 的方法。一切看起来都很好,除了视频文件中没有数据。怎么了? 1 适配器类 AVAssetWriterInput
我正在使用 LLSimpleCamera 录制视频。我用后置摄像头录制的很好,但是当我切换到前置摄像头时,应用程序崩溃,报告的错误是 * Terminating app due to uncaught
我正在从 iOS 上的 Unity 应用生成视频。我正在使用 iVidCap,它使用 AVFoundation 来执行此操作。那边一切正常。本质上,视频是通过使用纹理渲染目标并将帧传递给 Obj-C
我正在开发一个需要录制视频的应用程序。从图像中处理人脸后,将存储视频帧。 我可以成功录制视频。但是没有播放音频。 我的代码如下。 - (void)setupAVCapture { frameR
我正在尝试使用 AVAssetWriterInput 裁剪我在应用程序的截屏视频中阅读的视频。这是我当前的配置。 NSDictionary *videoCleanApertureSettings =
我正在编写一个库以使用 AVFoundation 将 Assets 导出到文件。我创建了一个读取器和一个写入器,将输入和输出连接到这些,然后对输入调用 requestMediaDataWhenRead
我正在开发一个同时做两件事的 iOS 应用: 它捕获音频和视频并将它们中继到服务器以提供视频聊天功能。 它捕获本地音频和视频并将它们编码为 mp4 文件以供后代保存。 不幸的是,当我们使用音频单元配置
我正在尝试获取 AVCaptureSession 并将其编码为 mp4。看起来这应该很简单,我正在尝试对单个 960x540 视频流进行编码;出于这个问题的目的,我不担心音频。 当我运行以下代码并使用
我正在尝试使用 AVCaptureSession 在内存中捕获摄像机视频,以便稍后将视频数据写入电影文件。虽然我已经能够成功启动捕获 session ,但我无法使用 AVAssetWriter 将捕获
有人知道如何使用超过 2 个 channel 的 AVAssetWriterInput init 吗? 我正在尝试初始化 audioInput,以这种方式在 AVAssetWriter 之后添加它:
我正在开发一个从磁盘读取媒体数据的应用程序,将其转换为适当的像素格式,然后将其传递给 AVAssetWriter 进行压缩并写入磁盘。我正在做我自己的阅读交错而不是使用 AVAssetReader。我
从 iOS 12.4 beta 版本开始,在 AVAssetWriterInput 上调用 appendSampleBuffer 会记录以下错误: CMSampleBufferGetSampleSiz
我一直在尝试使用 AVAssetWriter 和 AVAssetWriterInputs 编写视频+音频。 我在这个论坛上看到了很多人说他们能够做到这一点的帖子,但它对我不起作用。如果我只是写视频,那
我将示例缓冲区转换为 CGContext。然后我将转换应用到上下文并从中创建一个 CIImage,然后显示在 UIImageView 中。 同时我想将其附加到 AVAssetWriterInput 以
我正在尝试拍摄使用 iVidCap 插件创建的视频并向其添加音频。基本上与这个问题完全相同:Writing video + generated audio to AVAssetWriterInput,
我是一名优秀的程序员,十分优秀!