- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我正在尝试做的事情:
录制指定持续时间的音频/视频,其中生成的输出文件将添加来自外部音频文件的预定义背景音乐 - 录制后无需进一步编码/导出 .
就像您使用 iPhone 的相机应用程序录制视频一样,“相机胶卷”中的所有录制视频都有背景歌曲。结束录音后不导出或加载,也不在单独的 AudioTrack 中。
我如何努力实现这一目标:
通过使用 AVCaptureSession
,在传递( CMSampleBufferRef
)样本缓冲区的委托(delegate)方法中,我将它们推送到 AVAssetWriter 以写入文件。由于我不希望输出文件中有多个音轨,因此我无法通过单独的 AVAssetWriterInput
传递背景音乐。 ,这意味着我必须在录音时将背景音乐添加到录音中的每个样本缓冲区,以避免在录音后合并/导出。
背景音乐是一个特定的、预定义的音频文件(格式/编解码器:m4a aac),不需要时间编辑,只需在整个录音下方添加,从头到尾。录音永远不会长于背景音乐文件。
在开始写入文件之前,我还准备了一个 AVAssetReader
,读取指定的音频文件。
一些伪代码 (不包括线程):
-(void)startRecording
{
/*
Initialize writer and reader here: [...]
*/
backgroundAudioTrackOutput = [AVAssetReaderTrackOutput
assetReaderTrackOutputWithTrack:
backgroundAudioTrack
outputSettings:nil];
if([backgroundAudioReader canAddOutput:backgroundAudioTrackOutput])
[backgroundAudioReader addOutput:backgroundAudioTrackOutput];
else
NSLog(@"This doesn't happen");
[backgroundAudioReader startReading];
/* Some more code */
recording = YES;
}
- (void)captureOutput:(AVCaptureOutput *)captureOutput
didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer
fromConnection:(AVCaptureConnection *)connection
{
if(!recording)
return;
if(videoConnection)
[self writeVideoSampleBuffer:sampleBuffer];
else if(audioConnection)
[self writeAudioSampleBuffer:sampleBuffer];
}
AVCaptureSession
已经在流式传输摄像机视频和麦克风音频,并且正在等待
BOOL recording
设置为
YES
.这不完全是我这样做的方式,而是一个简短的、以某种方式等效的表示。当委托(delegate)方法收到
CMSampleBufferRef
音频类型,我调用自己的方法
writeAudioSamplebuffer:sampleBuffer
.如果这是正常完成的,没有我想要做的背景音轨,我会简单地输入这样的内容:
[assetWriterAudioInput appendSampleBuffer:sampleBuffer];
而不是调用我的方法。不过就我而言,我需要
重叠 写入之前的两个缓冲区:
-(void)writeAudioSamplebuffer:(CMSampleBufferRef)recordedSampleBuffer
{
CMSampleBufferRef backgroundSampleBuffer =
[backgroundAudioTrackOutput copyNextSampleBuffer];
/* DO MAGIC HERE */
CMSampleBufferRef resultSampleBuffer =
[self overlapBuffer:recordedSampleBuffer
withBackgroundBuffer:backgroundSampleBuffer];
/* END MAGIC HERE */
[assetWriterAudioInput appendSampleBuffer:resultSampleBuffer];
}
overlapBuffer:withBackgroundBuffer:
现在没有做太多事情。
我知道 如何提取
AudioBufferList
,
AudioBuffer
和
mData
等来自
CMSampleBufferRef
,但我不确定如何将它们实际加在一起 -
然而 - 我无法测试不同的方法来做到这一点,因为真正的问题发生在此之前。前
魔术应该发生,我有两个
CMSampleBufferRef
s,一个从麦克风收到,一个从文件中读取,这就是问题所在:
[self.backgroundAudioTrackOutput copyNextSampleBuffer];
接收大量样本。我意识到这对某些人来说可能是显而易见的,但我以前从未达到过这种媒体技术水平。我现在明白,打电话
copyNextSampleBuffer
是一厢情愿的想法。每次我从 session 中收到一个 sampleBuffer,但我不知道何时/何地放置它。
最佳答案
我不熟悉 AVCaptureOutput,因为我所有的声音/音乐 session 都是使用 AudioToolbox 而不是 AVFoundation 构建的。但是,我想您应该能够设置记录捕获缓冲区的大小。如果没有,并且您仍然只得到一个样本,我建议您将从捕获输出中获得的每个单独数据存储在辅助缓冲区中。当辅助缓冲区与文件读取缓冲区大小相同时,调用 [self overlapBuffer:auxiliarSampleBuffer withBackgroundBuffer:backgroundSampleBuffer];
我希望这会帮助你。如果没有,我可以提供有关如何使用 CoreAudio 执行此操作的示例。使用 CoreAudio 我已经能够从麦克风捕获和文件读取中获得 1024 个 LCPM 样本缓冲区。所以重叠是直接的。
关于ios - 将音频缓冲区 [从文件] 添加到 'live' 音频缓冲区 [录制到文件],我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/25943011/
IO 设备如何知道属于它的内存中的值在memory mapped IO 中发生了变化? ? 例如,假设内存地址 0 专用于保存 VGA 设备的背景颜色。当我们更改 memory[0] 中的值时,VGA
我目前正在开发一个使用Facebook sdk登录(通过FBLoginView)的iOS应用。 一切正常,除了那些拥有较旧版本的facebook的人。 当他们按下“使用Facebook登录”按钮时,他
假设我有: this - is an - example - with some - dashesNSRange将使用`rangeOfString:@“-”拾取“-”的第一个实例,但是如果我只想要最后
Card.io SDK提供以下详细信息: 卡号,有效期,月份,年份,CVV和邮政编码。 如何从此SDK获取国家名称。 - (void)userDidProvideCreditCardInfo:(Car
iOS 应用程序如何从网络服务下载图片并在安装过程中将它们安装到用户的 iOS 设备上?可能吗? 最佳答案 您无法控制应用在用户设备上的安装,因此无法在安装过程中下载其他数据。 只需在安装后首次启动应
我曾经开发过一款企业版 iOS 产品,我们公司曾将其出售给大型企业,供他们的员工使用。 该应用程序通过 AppStore 提供,企业用户获得了公司特定的配置文件(包含应用程序配置文件)以启用他们有权使
我正在尝试将 Card.io SDK 集成到我的 iOS 应用程序中。我想为 CardIO ui 做一个简单的本地化,如更改取消按钮标题或“在此保留信用卡”提示文本。 我在 github 上找到了这个
我正在使用 CardIOView 和 CardIOViewDelegate 类,没有可以设置为 YES 的 BOOL 来扫描 collectCardholderName。我可以看到它在 CardIOP
我有一个集成了通话工具包的 voip 应用程序。每次我从我的 voip 应用程序调用时,都会在 native 电话应用程序中创建一个新的最近通话记录。我在 voip 应用程序中也有自定义联系人(电话应
iOS 应用程序如何知道应用程序打开时屏幕上是否已经有键盘?应用程序运行后,它可以接收键盘显示/隐藏通知。但是,如果应用程序在分屏模式下作为辅助应用程序打开,而主应用程序已经显示键盘,则辅助应用程序不
我在模拟器中收到以下错误: ImageIO: CGImageReadSessionGetCachedImageBlockData *** CGImageReadSessionGetCachedIm
如 Apple 文档所示,可以通过 EAAccessory Framework 与经过认证的配件(由 Apple 认证)进行通信。但是我有点困惑,因为一些帖子告诉我它也可以通过 CoreBluetoo
尽管现在的调试器已经很不错了,但有时找出应用程序中正在发生的事情的最好方法仍然是古老的 NSLog。当您连接到计算机时,这样做很容易; Xcode 会帮助弹出日志查看器面板,然后就可以了。当您不在办公
在我的 iOS 应用程序中,我定义了一些兴趣点。其中一些有一个 Kontakt.io 信标的名称,它绑定(bind)到一个特定的 PoI(我的意思是通常贴在信标标签上的名称)。现在我想在附近发现信标,
我正在为警报提示创建一个 trigger.io 插件。尝试从警报提示返回数据。这是我的代码: // Prompt + (void)show_prompt:(ForgeTask*)task{
您好,我是 Apple iOS 的新手。我阅读并搜索了很多关于推送通知的文章,但我没有发现任何关于 APNS 从 io4 到 ios 6 的新更新的信息。任何人都可以向我提供 APNS 如何在 ios
UITabBar 的高度似乎在 iOS 7 和 8/9/10/11 之间发生了变化。我发布这个问题是为了让其他人轻松找到答案。 那么:在 iPhone 和 iPad 上的 iOS 8/9/10/11
我想我可以针对不同的 iOS 版本使用不同的 Storyboard。 由于 UI 的差异,我将创建下一个 Storyboard: Main_iPhone.storyboard Main_iPad.st
我正在写一些东西,我将使用设备的 iTunes 库中的一部分音轨来覆盖 2 个视频的组合,例如: AVMutableComposition* mixComposition = [[AVMutableC
我创建了一个简单的 iOS 程序,可以顺利编译并在 iPad 模拟器上运行良好。当我告诉 XCode 4 使用我连接的 iPad 设备时,无法编译相同的程序。问题似乎是当我尝试使用附加的 iPad 时
我是一名优秀的程序员,十分优秀!