- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
这是我的目标:我想将 .3gp 电影文件加载到 AVURLAsset 中。然后我想获取视频轨道并将输出帧泵入 OpenGL ES 纹理。这将是视频播放。然后我想继续利用 AVFoundation 来播放音频。该框架非常庞大,因此我希望在这方面得到一些资深人士的帮助。
我实际上让这两个部分分开工作,但是当我尝试同时执行这两个部分时,总会出错。简而言之,这是我目前的尝试(为简洁起见省略了所有错误处理):
我将 .3gp 文件加载到 AVURLAsset 中并加载轨道:
NSURL* fileURL = [[NSBundle mainBundle] URLForResource:someName withExtension:someExtension];
AVURLAsset* asset = [AVURLAsset URLAssetWithURL:fileURL options:nil];
[asset loadValuesAsynchronouslyForKeys:[NSArray arrayWithObject:@"tracks"] completionHandler:^ {/* More Code */}];
在完成处理程序中,我获得了对音频和视频轨道的引用:
// Tracks loaded, grab the audio and video tracks.
AVAssetTrack* videoTrack = [[asset tracksWithMediaType:AVMediaTypeVideo] objectAtIndex:0];
AVAssetTrack* audioTrack = [[asset tracksWithMediaType:AVMediaTypeAudio] objectAtIndex:0];
接下来,我创建单独的 AVMutableComposition ,其中只包含音轨和视频轨。我不确定这是否完全有必要,但这似乎是个好主意,而且似乎也有效:
// Make a composition with the video track.
AVMutableComposition* videoComposition = [AVMutableComposition composition];
AVMutableCompositionTrack* videoCompositionTrack = [videoComposition addMutableTrackWithMediaType:AVMediaTypeVideo preferredTrackID:kCMPersistentTrackID_Invalid];
[videoCompositionTrack insertTimeRange:[videoTrack timeRange] ofTrack:videoTrack atTime:CMTimeMake(0, 1) error:nil];
// Make a composition with the audio track.
AVMutableComposition* audioComposition = [AVMutableComposition composition];
AVMutableCompositionTrack* audioCompositionTrack = [audioComposition addMutableTrackWithMediaType:AVMediaTypeAudio preferredTrackID:kCMPersistentTrackID_Invalid];
[audioCompositionTrack insertTimeRange:[audioTrack timeRange] ofTrack:audioTrack atTime:CMTimeMake(0, 1) error:nil];
现在我将详细介绍如何处理每条轨道。我相当有信心我有处理视频轨道的唯一方法,即为视频合成创建一个 AVAssetReader,并添加一个使用视频合成轨道创建的 AVAssetTrackReaderOutput。通过保留对该轨道输出的引用,我可以调用它的 -copyNextSampleBuffer
方法来获取将视频输出泵入 OpenGL ES 纹理所需的信息。这本身就足够了:
// Create Asset Reader and Output for the video track.
NSDictionary* settings = [NSDictionary dictionaryWithObject:[NSNumber numberWithInt:kCVPixelFormatType_32BGRA] forKey:(NSString *)kCVPixelBufferPixelFormatTypeKey];
_assetReader = [[AVAssetReader assetReaderWithAsset:vComposition error:nil] retain];
_videoTrackOutput = [[AVAssetReaderTrackOutput assetReaderTrackOutputWithTrack:vCompositionTrack outputSettings:settings] retain];
[_assetReader addOutput:_videoTrackOutput];
[_assetReader startReading];
似乎破坏了整个事情的是试图以任何方式播放音频。我不太确定对剩余的音轨采用哪种方法。仅坚持 AVFoundation 领域,我看到两种可能的方法。第一种是使用 AVPlayer 来播放音频组合:
// Create a player for the audio.
AVPlayerItem* audioPlayerItem = [AVPlayerItem playerItemWithAsset:aComposition];
AVPlayer* audioPlayer = [[AVPlayer playerWithPlayerItem:audioPlayerItem] retain];
[audioPlayer play];
这行得通,因为我可以听到所需的音频。不幸的是,创建此播放器会保证视频组合的 AVAssetReaderTrackOutput 在调用 -copyNextSampleBuffer
时失败并出现神秘错误:
AVAssetReaderStatusFailed
Error Domain=AVFoundationErrorDomain Code=-11800 "The operation could not be completed" UserInfo=0x456e50 {NSLocalizedFailureReason=An unknown error occurred (-12785), NSUnderlyingError=0x486570 "The operation couldn’t be completed. (OSStatus error -12785.)", NSLocalizedDescription=The operation could not be completed}
我对它们如何相互干扰感到困惑,但无论如何,这种方法似乎是死胡同。
我考虑用于音频播放的另一个选项是 AVAudioPlayer 类,但我无法将它与 AVAsset 作为起点一起使用。我试图将其 -initWithData:error:
方法与 NSData 一起使用,该方法通过聚合 CMSampleBufferRefs 的内容构建,采用的方法与我在视频轨道上使用的方法相同,但它似乎不是格式正确。
在这一点上,我觉得自己在盲目地四处乱窜,如果有人能告诉我这种方法是否可行,我会非常高兴。如果不是,我当然会感激一个可行的。
最佳答案
为每个音轨创建 AVMutableCompositions(基本上是新的 AVAssets)对我来说似乎是迂回的,我只是在音轨上使用 AVAssetReader。此外,您的 videoComposition 似乎没有在任何地方使用,那么为什么要创建它?
在任何情况下,要使任一解决方案都起作用,请将 Audio Session 类别设置为 kAudioSessionCategory_MediaPlayback
并启用 kAudioSessionProperty_OverrideCategoryMixWithOthers
。
我从未找到任何文档来解释为什么这是必要的。
关于objective-c - 如何独立处理 AVURLAsset 的单独轨道?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/6038951/
对于 Metal ,如果对主纹理进行 mipmap 处理,是否还需要对多采样纹理进行 mipmap 处理?我阅读了苹果文档,但没有得到任何相关信息。 最佳答案 Mipmapping 适用于您将从中
我正在使用的代码在后端 Groovy 代码中具有呈现 GSP(Groovy 服务器页面)的 Controller 。对于前端,我们使用 React-router v4 来处理路由。我遇到的问题是,通过
我们正在 build 一个巨大的网站。我们正在考虑是在服务器端(ASP .Net)还是在客户端进行 HTML 处理。 例如,我们有 HTML 文件,其作用类似于用于生成选项卡的模板。服务器端获取 HT
我正在尝试将图像加载到 void setup() 中的数组中,但是当我这样做时出现此错误:“类型不匹配,'processing .core.PImage' does not匹配“processing.
我正在尝试使用其私有(private)应用程序更新 Shopify 上的客户标签。我用 postman 尝试过,一切正常,但通过 AJAX,它带我成功回调而不是错误,但成功后我得到了身份验证链接,而不
如何更改我的 Processing appIconTest.exe 导出的默认图标在窗口中的应用程序? 默认一个: 最佳答案 经过一些研究,我能找到的最简单的解决方案是: 进入 ...\process
我在 Processing 中做了一个简单的小游戏,但需要一些帮助。我有一个 mp3,想将它添加到我的应用程序中,以便在后台循环运行。 这可能吗?非常感谢。 最佳答案 您可以使用声音库。处理已经自带
我有几个这样创建的按钮: 在 setup() PImage[] imgs1 = {loadImage("AREA1_1.png"),loadImage("AREA1_2.png"),loadImage
我正在尝试使用 Processing 创建一个多人游戏,但无法弄清楚如何将屏幕分成两个以显示玩家的不同情况? 就像在 c# 中一样,我们有Viewport leftViewport,rightView
我一直在尝试使用 Moore 邻域在处理过程中创建元胞自动机,到目前为止非常成功。我已经设法使基本系统正常工作,现在我希望通过添加不同的功能来使用它。现在,我检查细胞是否存活。如果是,我使用 fill
有没有办法用 JavaScript 代码检查资源使用情况?我可以检查脚本的 RAM 使用情况和 CPU 使用情况吗? 由于做某事有多种方法,我可能会使用不同的方法编写代码,并将其保存为两个不同的文件,
我想弄清楚如何处理这样的列表: [ [[4,6,7], [1,2,4,6]] , [[10,4,2,4], [1]] ] 这是一个整数列表的列表 我希望我的函数将此列表作为输入并返回列表中没有重复的整
有没有办法在不需要时处理 MethodChannel/EventChannel ?我问是因为我想为对象创建多个方法/事件 channel 。 例子: class Call { ... fields
我有一个关于在 Python3 中处理 ConnectionResetError 的问题。这通常发生在我使用 urllib.request.Request 函数时。我想知道如果我们遇到这样的错误是否可
我一直在努力解决这个问题几个小时,但无济于事。代码很简单,一个弹跳球(粒子)。将粒子的速度初始化为 (0, 0) 将使其保持上下弹跳。将粒子的初始化速度更改为 (0, 0.01) 或任何十进制浮点数都
我把自己弄得一团糟。 我想在我的系统中添加 python3.6 所以我决定在我的 Ubuntu 19.10 中卸载现有的。但是现在每次我想安装一些东西我都会得到这样的错误: dpkg: error w
我正在努力解决 Rpart 包中的 NA 功能。我得到了以下数据框(下面的代码) Outcome VarA VarB 1 1 1 0 2 1 1 1
我将 Java 与 JSF 一起使用,这是 Glassfish 3 容器。 在我的 Web 应用程序中,我试图实现一个文件(图像)管理系统。 我有一个 config.properties我从中读取上传
所以我一直在Processing工作几个星期以来,虽然我没有编程经验,但我已经转向更复杂的项目。我正在编写一个进化模拟器,它会产生具有随机属性的生物。 最终,我将添加复制,但现在这些生物只是在屏幕上漂
有人知道 Delphi 2009 对“with”的处理有什么不同吗? 我昨天解决了一个问题,只是将“with”解构为完整引用,如“with Datamodule、Dataset、MainForm”。
我是一名优秀的程序员,十分优秀!