gpt4 book ai didi

swift - 将使用 AudioKit 录制的音频文件读取到 AVPlayer 实例中时出现问题

转载 作者:行者123 更新时间:2023-12-05 05:13:42 30 4
gpt4 key购买 nike

我处于这样一种情况,我需要导出使用 AudioKit 录制的音频文件,然后稍后重新导入它以便通过 AVAudioPCMBuffer 进行一些处理。

下面是我用于从 AudioKit 导出的代码:

    tape = recorder.audioFile!
player.load(audioFile: tape)


if let _ = player.audioFile?.duration {
recorder.stop()
tape.exportAsynchronously(name: "TempTestFile",
baseDir: .documents,
exportFormat: .caf) {_, exportError in
if let error = exportError {
AKLog("Export Failed \(error)")
} else {
AKLog("Export succeeded")
}
}

}

这是我稍后尝试将该音频文件读回我的 macOS 应用程序的地方,并填充 AVAudioPCMBuffer(其中 file 是我的音频文件)我正在尝试阅读):

            let format = AVAudioFormat(commonFormat: .pcmFormatFloat32, sampleRate: Double(sampleRate), channels: AVAudioChannelCount(channels), interleaved: interleaved)

if let buffer = AVAudioPCMBuffer(pcmFormat: format!, frameCapacity: AVAudioFrameCount(file.length)){
if ((try? file.read(into: buffer)) != nil) {

let arraySize = Int(buffer.frameLength)

switch type {
case is Double.Type:
let doublePointer = UnsafeMutablePointer<Double>.allocate(capacity: arraySize)
vDSP_vspdp(buffer.floatChannelData![0], 1, doublePointer, 1, vDSP_Length(arraySize))
return Array(UnsafeBufferPointer(start: doublePointer, count:arraySize)) as? [T]
case is Float.Type:
return Array(UnsafeBufferPointer(start: buffer.floatChannelData![0], count:arraySize)) as? [T]
default: return nil
}
}
}

但是,我一直收到以下错误:

EXCEPTION (-50): "wrong number of buffers"

[avae] AVAEInternal.h:103:_AVAE_CheckNoErr: [AVAudioFile.mm:445:-[AVAudioFile readIntoBuffer:frameCount:error:]: (ExtAudioFileRead(_imp->_extAudioFile, &ioFrames, buffer.mutableAudioBufferList)): error -50

这与导出和导入音频时使用的文件格式无关。

但是,如果我使用 this .wav file,它确实可以正常工作这是直接从应用程序内部读取的。

有没有人知道为什么我似乎无法将音频文件中的数据读入 AVPCMBuffer

最佳答案

在这一行中:

let format = AVAudioFormat(commonFormat: .pcmFormatFloat32, sampleRate: Double(sampleRate), channels: AVAudioChannelCount(channels), interleaved: interleaved)

尝试将 interleaved 正确设置为 false 并且不要忘记将结果数据视为非交错(请阅读下文了解更多信息)。

出于某种原因,它适用于非交错缓冲区,但我无法让它与交错缓冲区一起工作:(如果有人知道怎么做,请发表评论:)

交错与非交错

这是来自 Mike Ash's blog 的摘录关于处理音频数据。

...您可能已经注意到,大多数人都有两只耳朵。正因为如此,对于大多数人来说,录制为两个独立流的声音比单个流更好听。从概念上讲,该音频可以被认为是压力随时间变化的两个独立函数。

要在数据中表示立体声,必须同时表示这两个函数。最常见的方法是简单地交错两个 channel ,这样缓冲区中的第一个值将是左 channel ,第二个值是右 channel ,然后再次是左 channel ,等等。在内存中,它看起来像:

LRLRLRLRLRLRLRLRLR

也可以简单地使用两个完全不同的缓冲区,就像这样:

buffer 1: LLLLLLLLLL
buffer 2: RRRRRRRRRR

像这样的去交错数据可以更方便地使用,但交错表示更常用,因为它将所有内容都放在一个地方。

关于swift - 将使用 AudioKit 录制的音频文件读取到 AVPlayer 实例中时出现问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53234114/

30 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com