作者热门文章
- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我计划使用 AV 可变合成在 iOS 上的 View 中呈现内容。我想将来自一个 iPhone 摄像头的视频与在图层中创建的内容结合起来 - 可变合成似乎适合这里的要求,因为它可以将图层合成到视频内容中。
在录制视频时进行合成并不重要——我也很乐意将所需数据混合到合成中,然后在完成初始视频录制后将其渲染(通过 AVExportSession)到文件中。
但我不明白的是,在 AV 框架的上下文中,[ca] 层应该如何知道在合成期间的给定时间要绘制什么。
我的图层内容依赖于时间线,时间线描述了图层内需要绘制的内容。因此,如果我将一个层嵌入到可变合成中,然后通过 AVExportSession 导出该合成 - CALayer 实例将如何知道它应该在什么时间生成内容?
最佳答案
我遇到过类似的事情。我建议您查看 WWDC 2010 AVEditDemo 应用程序源代码。那里有一个示例代码可以完全满足您的需要 - 将 CALayer 放置在视频轨道之上,并在其之上制作动画。
您还可以在以下位置查看我在该主题上所做的努力:Mix video with static image in CALayer using AVVideoCompositionCoreAnimationTool
关于ios - 如何在 iOS 上使用 AVMutableComposition 和 CALayers,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/6206839/
我是一名优秀的程序员,十分优秀!