- r - 以节省内存的方式增长 data.frame
- ruby-on-rails - ruby/ruby on rails 内存泄漏检测
- android - 无法解析导入android.support.v7.app
- UNIX 域套接字与共享内存(映射文件)
我正在开发记录用户音频的应用程序,使用 AudioToolbox
将数据写入文件并处理这些数据。在分析中,我看到 AudioToolbox 录音中发生了很多错误。其中几乎一半是从 AudioFileWriteBytes()
调用返回的 -38 kAudioFileNotOpenError
错误。
现在这似乎是无缘无故发生的:用户开始记录,一切顺利,然后连续记录 10-80 次错误。在分析中,没有诸如转到后台或暂停记录之类的用户操作(我们有此功能)。
我在网上搜索了信息,但没有找到太多关于错误的信息。
我发布了所有的录音代码(剥离了未使用的代码或分析代码),因为除了 -38 kAudioFileNotOpenError
我还有很多其他错误,这可能意味着我可能正在使用 AudioToolbox
以错误的方式。以下是最常见的错误:
AudioFileWriteBytes()
返回 -38 kAudioFileNotOpenError
错误:(代码中的 [1]
)- 约占所有错误的 50%AudioUnitRender()
返回 -10863 kAudioUnitErr_CannotDoInCurrentContext
错误(代码中的 [2]
)- ~5%AudioFileWriteBytes()
返回 1868981823 kAudioFileDoesNotAllow64BitDataSizeError
错误:(代码中的 [1]
)- ~4%AudioUnitRender()
返回 -1
错误(代码中的 [2]
)- ~3%任何帮助、评论或建议都将非常有帮助!
这是代码(它也可以在 GitHub 上获得:https://github.com/derpoliuk/SO-AudioToolbox-error-quesion):
class Recorder {
static let shared = Recorder()
private static let sampleRate: Float64 = 16000
var processAudioData: ((Data) -> ())?
fileprivate var remoteIOUnit: AudioComponentInstance?
private var audioFile: AudioFileID?
private var startingByte: Int64 = 0
// Audio recording settings
private let formatId: AudioFormatID = kAudioFormatLinearPCM
private let bitsPerChannel: UInt32 = 16
private let channelsPerFrame: UInt32 = 1
private let bytesPerFrame: UInt32 = 2 // channelsPerFrame * 2
private let framesPerPacket: UInt32 = 1
private let encoderBitRate = 12800
private let formatFlags: AudioFormatFlags = kAudioFormatFlagsNativeEndian | kAudioFormatFlagIsSignedInteger | kAudioFormatFlagIsPacked
func record(atURL url: URL) {
var status = openFileForWriting(fileURL: url)
startingByte = 0
status = prepareAudioToolbox()
status = startAudioToolboxRecording()
}
func openFileForWriting(fileURL: URL) -> OSStatus {
var asbd = AudioStreamBasicDescription()
memset(&asbd, 0, MemoryLayout<AudioStreamBasicDescription>.size)
asbd.mSampleRate = Recorder.sampleRate
asbd.mFormatID = formatId
asbd.mFormatFlags = formatFlags
asbd.mBitsPerChannel = bitsPerChannel
asbd.mChannelsPerFrame = channelsPerFrame
asbd.mFramesPerPacket = framesPerPacket
asbd.mBytesPerFrame = bytesPerFrame
asbd.mBytesPerPacket = framesPerPacket * bytesPerFrame
// Set up the file
var audioFile: AudioFileID?
var audioErr: OSStatus = noErr
audioErr = AudioFileCreateWithURL(fileURL as CFURL, AudioFileTypeID(kAudioFileWAVEType), &asbd, .eraseFile, &audioFile)
if audioErr == noErr {
self.audioFile = audioFile
}
return audioErr
}
func prepareAudioToolbox() -> OSStatus {
var status = noErr
// Describe the RemoteIO unit
var audioComponentDescription = AudioComponentDescription()
audioComponentDescription.componentType = kAudioUnitType_Output
audioComponentDescription.componentSubType = kAudioUnitSubType_RemoteIO
audioComponentDescription.componentManufacturer = kAudioUnitManufacturer_Apple
audioComponentDescription.componentFlags = 0
audioComponentDescription.componentFlagsMask = 0
// Get the RemoteIO unit
var ioUnit: AudioComponentInstance?
let remoteIOComponent = AudioComponentFindNext(nil, &audioComponentDescription)
status = AudioComponentInstanceNew(remoteIOComponent!, &ioUnit)
guard status == noErr else {
return status
}
guard let remoteIOUnit = ioUnit else {
return 656783
}
self.remoteIOUnit = remoteIOUnit
// Configure the RemoteIO unit for input
let bus1: AudioUnitElement = 1
var oneFlag: UInt32 = 1
status = AudioUnitSetProperty(remoteIOUnit,
kAudioOutputUnitProperty_EnableIO,
kAudioUnitScope_Input,
bus1,
&oneFlag,
UInt32(MemoryLayout<UInt32>.size));
guard status == noErr else {
return status
}
var asbd = AudioStreamBasicDescription()
asbd.mSampleRate = Recorder.sampleRate
asbd.mFormatID = formatId
asbd.mFormatFlags = formatFlags
asbd.mBitsPerChannel = bitsPerChannel
asbd.mChannelsPerFrame = channelsPerFrame
asbd.mFramesPerPacket = framesPerPacket
asbd.mBytesPerFrame = bytesPerFrame
asbd.mBytesPerPacket = framesPerPacket * bytesPerFrame
// Set format for mic input (bus 1) on RemoteIO's output scope
status = AudioUnitSetProperty(remoteIOUnit,
kAudioUnitProperty_StreamFormat,
kAudioUnitScope_Output,
bus1,
&asbd,
UInt32(MemoryLayout<AudioStreamBasicDescription>.size))
guard status == noErr else {
return status
}
// Set the recording callback
var callbackStruct = AURenderCallbackStruct()
callbackStruct.inputProc = recordingCallback
callbackStruct.inputProcRefCon = nil
status = AudioUnitSetProperty(remoteIOUnit,
kAudioOutputUnitProperty_SetInputCallback,
kAudioUnitScope_Global,
bus1,
&callbackStruct,
UInt32(MemoryLayout<AURenderCallbackStruct>.size));
guard status == noErr else {
return status
}
// Initialize the RemoteIO unit
return AudioUnitInitialize(remoteIOUnit)
}
func startAudioToolboxRecording() -> OSStatus {
guard let remoteIOUnit = remoteIOUnit else {
return 656783
}
return AudioOutputUnitStart(remoteIOUnit)
}
func writeDataToFile(audioBuffers: UnsafeMutableBufferPointer<AudioBuffer>) -> OSStatus {
guard let audioFile = audioFile else {
return 176136
}
var startingByte = self.startingByte
for audioBuffer in audioBuffers {
var numBytes = audioBuffer.mDataByteSize
guard let mData = audioBuffer.mData else {
continue
}
// [1] following call fails with `-38` error (`kAudioFileNotOpenError`). Less often it fails with `1868981823` error (`kAudioFileDoesNotAllow64BitDataSizeError`)
let audioErr = AudioFileWriteBytes(audioFile,
false,
startingByte,
&numBytes,
mData)
guard audioErr == noErr else {
return audioErr
}
let data = Data(bytes: mData, count: Int(numBytes))
processAudioData?(data)
startingByte += Int64(numBytes)
}
self.startingByte = startingByte
return noErr
}
}
private func recordingCallback(
inRefCon: UnsafeMutableRawPointer,
ioActionFlags: UnsafeMutablePointer<AudioUnitRenderActionFlags>,
inTimeStamp: UnsafePointer<AudioTimeStamp>,
inBusNumber: UInt32,
inNumberFrames: UInt32,
ioData: UnsafeMutablePointer<AudioBufferList>?) -> OSStatus {
guard let remoteIOUnit = Recorder.shared.remoteIOUnit else {
return 656783
}
var status = noErr
let channelCount: UInt32 = 1
var bufferList = AudioBufferList()
bufferList.mNumberBuffers = channelCount
let buffers = UnsafeMutableBufferPointer<AudioBuffer>(start: &bufferList.mBuffers,
count: Int(bufferList.mNumberBuffers))
buffers[0].mNumberChannels = 1
buffers[0].mDataByteSize = inNumberFrames * 2
buffers[0].mData = nil
// get the recorded samples
// [2] following call fails with `-10863` error (`kAudioUnitErr_CannotDoInCurrentContext`) and less often with `-1` error
status = AudioUnitRender(remoteIOUnit,
ioActionFlags,
inTimeStamp,
inBusNumber,
inNumberFrames,
UnsafeMutablePointer<AudioBufferList>(&bufferList))
guard status == noErr else {
return status
}
status = Recorder.shared.writeDataToFile(audioBuffers: buffers)
return status
}
最佳答案
好的,我希望这能有所帮助,我认为问题在于记录速度、写入速度和渲染速度,所以你可以用 block 来写,这样你就可以隔离方法,我在图形方面也有同样的问题,所以我总是阻塞(锁定和解锁缓冲区)。
关于ios - AudioFileWriteBytes (AudioToolbox) 失败,错误代码为 -38 kAudioFileNotOpenError,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48344490/
IO 设备如何知道属于它的内存中的值在memory mapped IO 中发生了变化? ? 例如,假设内存地址 0 专用于保存 VGA 设备的背景颜色。当我们更改 memory[0] 中的值时,VGA
我目前正在开发一个使用Facebook sdk登录(通过FBLoginView)的iOS应用。 一切正常,除了那些拥有较旧版本的facebook的人。 当他们按下“使用Facebook登录”按钮时,他
假设我有: this - is an - example - with some - dashesNSRange将使用`rangeOfString:@“-”拾取“-”的第一个实例,但是如果我只想要最后
Card.io SDK提供以下详细信息: 卡号,有效期,月份,年份,CVV和邮政编码。 如何从此SDK获取国家名称。 - (void)userDidProvideCreditCardInfo:(Car
iOS 应用程序如何从网络服务下载图片并在安装过程中将它们安装到用户的 iOS 设备上?可能吗? 最佳答案 您无法控制应用在用户设备上的安装,因此无法在安装过程中下载其他数据。 只需在安装后首次启动应
我曾经开发过一款企业版 iOS 产品,我们公司曾将其出售给大型企业,供他们的员工使用。 该应用程序通过 AppStore 提供,企业用户获得了公司特定的配置文件(包含应用程序配置文件)以启用他们有权使
我正在尝试将 Card.io SDK 集成到我的 iOS 应用程序中。我想为 CardIO ui 做一个简单的本地化,如更改取消按钮标题或“在此保留信用卡”提示文本。 我在 github 上找到了这个
我正在使用 CardIOView 和 CardIOViewDelegate 类,没有可以设置为 YES 的 BOOL 来扫描 collectCardholderName。我可以看到它在 CardIOP
我有一个集成了通话工具包的 voip 应用程序。每次我从我的 voip 应用程序调用时,都会在 native 电话应用程序中创建一个新的最近通话记录。我在 voip 应用程序中也有自定义联系人(电话应
iOS 应用程序如何知道应用程序打开时屏幕上是否已经有键盘?应用程序运行后,它可以接收键盘显示/隐藏通知。但是,如果应用程序在分屏模式下作为辅助应用程序打开,而主应用程序已经显示键盘,则辅助应用程序不
我在模拟器中收到以下错误: ImageIO: CGImageReadSessionGetCachedImageBlockData *** CGImageReadSessionGetCachedIm
如 Apple 文档所示,可以通过 EAAccessory Framework 与经过认证的配件(由 Apple 认证)进行通信。但是我有点困惑,因为一些帖子告诉我它也可以通过 CoreBluetoo
尽管现在的调试器已经很不错了,但有时找出应用程序中正在发生的事情的最好方法仍然是古老的 NSLog。当您连接到计算机时,这样做很容易; Xcode 会帮助弹出日志查看器面板,然后就可以了。当您不在办公
在我的 iOS 应用程序中,我定义了一些兴趣点。其中一些有一个 Kontakt.io 信标的名称,它绑定(bind)到一个特定的 PoI(我的意思是通常贴在信标标签上的名称)。现在我想在附近发现信标,
我正在为警报提示创建一个 trigger.io 插件。尝试从警报提示返回数据。这是我的代码: // Prompt + (void)show_prompt:(ForgeTask*)task{
您好,我是 Apple iOS 的新手。我阅读并搜索了很多关于推送通知的文章,但我没有发现任何关于 APNS 从 io4 到 ios 6 的新更新的信息。任何人都可以向我提供 APNS 如何在 ios
UITabBar 的高度似乎在 iOS 7 和 8/9/10/11 之间发生了变化。我发布这个问题是为了让其他人轻松找到答案。 那么:在 iPhone 和 iPad 上的 iOS 8/9/10/11
我想我可以针对不同的 iOS 版本使用不同的 Storyboard。 由于 UI 的差异,我将创建下一个 Storyboard: Main_iPhone.storyboard Main_iPad.st
我正在写一些东西,我将使用设备的 iTunes 库中的一部分音轨来覆盖 2 个视频的组合,例如: AVMutableComposition* mixComposition = [[AVMutableC
我创建了一个简单的 iOS 程序,可以顺利编译并在 iPad 模拟器上运行良好。当我告诉 XCode 4 使用我连接的 iPad 设备时,无法编译相同的程序。问题似乎是当我尝试使用附加的 iPad 时
我是一名优秀的程序员,十分优秀!