gpt4 book ai didi

ios - 内存中的 AVAudioFile?

转载 作者:搜寻专家 更新时间:2023-10-31 23:01:10 26 4
gpt4 key购买 nike

我正在玩弄 AVAudioFile 和 AVAudioPlayerNode。

我已经实现了一个自定义流媒体协议(protocol)来接收音频 block 并处理所有缓冲部分,但是我无法在不使用文件系统的情况下播放第一个 block (我不想在这里使用 FS时间)。

这是:当我将数据写入临时文件并使用 AVAudioFile 加载它时它工作正常(然后我初始化一个 AVAudioBuffer 并使用 AVAudioFile. readIntoBuffer & 最后 AVAudioPlayerNode.scheduleBuffer)。但是我无法直接从第一个 block (NSData) 加载缓冲区。

我是否应该实现自定义 NSURLProtocol 并尝试从自定义 NSURL 初始化 AVAudioFile?

func play( data: NSData ) {
var audioFile: AVAudioFile
var audioBuffer: AVAudioPCMBuffer
// writing the data
let destPath = NSTemporaryDirectory() + "chunk.mp3"
data.writeToFile( destPath, atomically: true )
// initializing the AVAudioFile
audioFile = AVAudioFile( forReading: NSURL(string: destPath)!)
// initializing the AVAudioPCMBuffer
audioBuffer = AVAudioPCMBuffer(PCMFormat: audioFile.processingFormat,
frameCapacity: UInt32(data.length))
audioFile.readIntoBuffer( audioBuffer )
/*
I didn't put any AVAudioPlayerNode/AVAudioEngine in this code to keep it simple and describe the situation,
anyway this works fine when everything's properly initialized:
*/
player.scheduleBuffer( audioBuffer, completionHandler: nil )
}

最佳答案

来自documentation :

To play streamed audio content, such as from a network connection, use Audio File Stream Services in concert with Audio Queue Services. Audio File Stream Services parses audio packets and metadata from common audio file container formats in a network bitstream. You can also use it to parse packets and metadata from on-disk files.

这里的关键点是使用音频文件服务将数据放入缓冲区并使用音频队列服务将其排队。网络部分通常使用 CFNetwork API 完成,它比 NSURLProtocol 低得多。

Apple 示例代码“AudioFileStreamExample”说明了音频流的客户端和服务器实现。这将是一个有效的起点。

关于ios - 内存中的 AVAudioFile?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/34988078/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com