- Java 双重比较
- java - 比较器与 Apache BeanComparator
- Objective-C 完成 block 导致额外的方法调用?
- database - RESTful URI 是否应该公开数据库主键?
我一直致力于使用 AVAssetReader 读取音频 Assets ,以便稍后可以使用带有 AudioUnit 回调的 AUGraph 播放音频。我有 AUGraph 和 AudioUnit 回调工作,但它从磁盘读取文件,如果文件太大,它会占用太多内存并使应用程序崩溃。因此,我改为直接阅读 Assets ,而且大小有限。然后,我会将其作为双缓冲区进行管理,并在需要时获取 AUGraph 所需的内容。
(注意:我很想知道我是否可以使用音频队列服务并仍然使用带有 AudioUnit 回调的 AUGraph,以便 iOS 框架为我管理内存。)
我的问题是我对 C 中的数组、结构和指针没有很好的理解。我需要帮助的部分是获取保存在单个 AudioBuffer 上的单个 AudioBufferList 并将该数据添加到保存在以后要用到的所有数据。我相信我需要使用 memcpy 但不清楚如何使用它甚至为我的目的初始化 AudioBufferList。我正在使用 MixerHost供引用,这是 Apple 的示例项目,它从磁盘读取文件。
如果您想在 Xcode 中加载它,我已经上传了我正在进行的工作。我已经弄清楚完成这项工作所需的大部分内容,一旦我将所有数据收集到一个地方,我就可以开始了。
示例项目:MyAssetReader.zip
在 header 中,您可以看到我将 bufferList 声明为指向结构的指针。
@interface MyAssetReader : NSObject {
BOOL reading;
signed long sampleTotal;
Float64 totalDuration;
AudioBufferList *bufferList; // How should this be handled?
}
然后我这样分配bufferList,主要是借鉴了MixerHost...
UInt32 channelCount = [asset.tracks count];
if (channelCount > 1) {
NSLog(@"We have more than 1 channel!");
}
bufferList = (AudioBufferList *) malloc (
sizeof (AudioBufferList) + sizeof (AudioBuffer) * (channelCount - 1)
);
if (NULL == bufferList) {NSLog (@"*** malloc failure for allocating bufferList memory"); return;}
// initialize the mNumberBuffers member
bufferList->mNumberBuffers = channelCount;
// initialize the mBuffers member to 0
AudioBuffer emptyBuffer = {0};
size_t arrayIndex;
for (arrayIndex = 0; arrayIndex < channelCount; arrayIndex++) {
// set up the AudioBuffer structs in the buffer list
bufferList->mBuffers[arrayIndex] = emptyBuffer;
bufferList->mBuffers[arrayIndex].mNumberChannels = 1;
// How should mData be initialized???
bufferList->mBuffers[arrayIndex].mData = malloc(sizeof(AudioUnitSampleType));
}
最后我循环阅读。
int frameCount = 0;
CMSampleBufferRef nextBuffer;
while (assetReader.status == AVAssetReaderStatusReading) {
nextBuffer = [assetReaderOutput copyNextSampleBuffer];
AudioBufferList localBufferList;
CMBlockBufferRef blockBuffer;
CMSampleBufferGetAudioBufferListWithRetainedBlockBuffer(nextBuffer, NULL, &localBufferList, sizeof(localBufferList), NULL, NULL,
kCMSampleBufferFlag_AudioBufferList_Assure16ByteAlignment, &blockBuffer);
// increase the number of total bites
bufferList->mBuffers[0].mDataByteSize += localBufferList.mBuffers[0].mDataByteSize;
// carefully copy the data into the buffer list
memcpy(bufferList->mBuffers[0].mData + frameCount, localBufferList.mBuffers[0].mData, sizeof(AudioUnitSampleType));
// get information about duration and position
//CMSampleBufferGet
CMItemCount sampleCount = CMSampleBufferGetNumSamples(nextBuffer);
Float64 duration = CMTimeGetSeconds(CMSampleBufferGetDuration(nextBuffer));
Float64 presTime = CMTimeGetSeconds(CMSampleBufferGetPresentationTimeStamp(nextBuffer));
if (isnan(duration)) duration = 0.0;
if (isnan(presTime)) presTime = 0.0;
//NSLog(@"sampleCount: %ld", sampleCount);
//NSLog(@"duration: %f", duration);
//NSLog(@"presTime: %f", presTime);
self.sampleTotal += sampleCount;
self.totalDuration += duration;
frameCount++;
free(nextBuffer);
}
我不确定我处理的是什么 mDataByteSize 和 mData,尤其是 memcpy。由于 mData 是一个空指针,这是一个额外的棘手区域。
memcpy(bufferList->mBuffers[0].mData + frameCount, localBufferList.mBuffers[0].mData, sizeof(AudioUnitSampleType));
在这一行中,我认为它应该将值从 localBufferList 中的数据复制到 bufferList 中的位置加上帧数以将指针定位到应该写入数据的位置。我有几个关于我需要改变什么才能让它发挥作用的想法。
目前,当我运行这个应用程序时,它以一个无效的 bufferList 指针结束了这个函数。
感谢您帮助我更好地理解如何管理 AudioBufferList。
最佳答案
我想出了我自己的答案。我决定使用 NSMutableData 对象,它允许我在调用 CMSampleBufferGetAudioBufferListWithRetainedBlockBuffer 获取 AudioBufferList 后从 CMSampleBufferRef 追加字节。
[data appendBytes:localBufferList.mBuffers[0].mData length:localBufferList.mBuffers[0].mDataByteSize];
一旦读取循环完成,我的 NSMutableData 对象中就有了所有数据。然后,我以这种方式创建并填充 AudioBufferList。
audioBufferList = (AudioBufferList *)malloc(sizeof(AudioBufferList));
if (NULL == audioBufferList) {
NSLog (@"*** malloc failure for allocating audioBufferList memory");
[data release];
return;
}
audioBufferList->mNumberBuffers = 1;
audioBufferList->mBuffers[0].mNumberChannels = channelCount;
audioBufferList->mBuffers[0].mDataByteSize = [data length];
audioBufferList->mBuffers[0].mData = (AudioUnitSampleType *)malloc([data length]);
if (NULL == audioBufferList->mBuffers[0].mData) {
NSLog (@"*** malloc failure for allocating mData memory");
[data release];
return;
}
memcpy(audioBufferList->mBuffers[0].mData, [data mutableBytes], [data length]);
[data release];
如果我能对我如何使用 malloc 创建结构并填充它进行一些代码审查,我将不胜感激。我偶尔会收到 EXC_BAD_ACCESS 错误,但我无法确定错误的位置。因为我在结构上使用 malloc,所以我不必在任何地方保留它。我调用“free”来释放结构中的子元素,最后在我使用 malloc 的任何地方释放结构本身。
关于objective-c - 如何使用 AVAssetReader 添加到 AudioBufferList?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/5615395/
我在使用 AVAssetReader 时遇到问题,无法从 iPod 库获取样本并通过音频队列进行流式传输。我无法找到任何这样的示例,因此我尝试实现自己的示例,但似乎 AssetReader 在音频队列
AVAssetReader 很棒,但我只能看到如何将它与本地 Assets 、文件或我猜的组合一起使用, 所以, assetReader = try AVAssetReader(asset: self
我有一个 OpenGL iOS 应用程序,我正在使用 AVAssetReader 从视频中读取帧并使用视频内容为一个简单模型制作纹理。 一切都按预期工作,除了我在辅助线程上使用 AVAssetRead
我正在尝试将示例从 objective-c 转换为 Monotouch,但遇到了一些困难。 基本上我想读取视频文件,并将帧一帧一帧地解码为 opengl 纹理。 这样做的关键是使用 AVAssetRe
我想通过 AVAssetReader 阅读视频样本,但遇到了各种障碍。一些帖子代码可以从应用程序包中名为“Movie.m4v”的视频设置 AVAsset 并使用 AVAssetReader 循环播放视
我正在编写一个 iPad 应用程序,我需要在其中加入不同分辨率的 mp4 文件。为此,我结合使用 AVAssetReader 来读取 mp4 源文件,并使用 AVAssetWriter 将这些源文件写
如何计算使用 AVAssetReader 从 iPod 库获取的歌曲的采样率。我想我可以很容易地获得样本的数量(无论如何我已经成功地读取了样本..),但我不知道在哪里可以获得歌曲的长度(以秒为单位)。
您好,我一直在尝试弄清楚如何在 GPUImage2 中实现电影循环,但到目前为止还没有成功。 GPUImage2 中的 MovieInput 类使用 AVAssetReader 播放电影文件,所以我研
我需要从 AVAsset 中读取音频和视频的原始样本。做这个的最好方式是什么?我可以将多个 AVAssetReaderTrackOutput 对象附加到一个 AVAssetReader。但是 [AVA
我正在使用 AVAssetReader 从视频文件中获取各个帧。我想知道如何播放 Mp4 文件中的音频。 方法[player play]的返回值为false,所以没有声音播放,但是为什么 谢谢。 创建
我正在尝试从 MP3 中获取 PCM 数据。我正在使用 AVAssetReaderOutput,它似乎可以很好地读取数据。 while(true) { nextBuffer = [assetR
我正在使用 AVAssetReader 和 AVAssetReaderTrackOutput 从 iOS 上的 iPod 库中读取音频 Assets 。但是,当我读取数据并将 block 放回原处时,
我已经按照此处讨论的方式实现了搜索(AVAssetReader Seeking),但是在拆除 AVAssetReader 并构建新的 AVAssetReader 时当然会有明显的延迟(因为一旦开始读取
在结合了几个 SO 问题(如 this one)的答案后,我已经设法使用 AVAssetReader 从 MPMediaItem 获取原始数据。和 this one和一个不错的blog post .我
根据我的研究.. 人们一直说它是基于不匹配/错误的格式.. 但我对输入和输出都使用 lPCM 格式.. 你怎么会出错呢?我得到的结果只是噪音..(像白噪音) 我决定只粘贴我的整个代码..也许这会有所帮
如何通过 AVAssetReader 读取音频样本?我找到了使用 AVAssetReader 进行复制或混合的示例,但这些循环始终由 AVAssetWriter 循环控制。是否可以只创建一个 AVAs
我使用assetUrl 从iPod 库中读取歌曲(代码名为audioUrl)我可以以多种方式播放它,我可以剪切它,我可以用它进行一些进动,但是......我真的不明白我要用这个 CMSampleBuf
情况: 我正在尝试使用一些参数导出视频,例如视频比特率、音频比特率、帧速率、更改视频分辨率等。请注意,我让用户以分数设置视频帧速率;喜欢用户可以设置视频帧速率,比如 23.98。 我用 AVAsset
我在我的程序中使用以下代码从录音中提取样本。我以为我理解了这个过程,但是当我阅读 Apples 开发者指南时,我并不完全理解 AVAssetReader 和 AVAssetReaderTrackOut
使用 AVAssetReader 读取文件时出现 Exc_bad_Access 异常。 该文件位于文档目录中,格式为 m4a。这是我正在使用的代码。无法弄清楚我在哪里弄错了: NSArray *pa
我是一名优秀的程序员,十分优秀!