- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我正在尝试制作一个应用程序间音频 iOS 应用程序,看起来我在 AudioOutputUnitPublish
方法上遇到了问题。方法如下:
- (void)publishOutputAudioUnit {
AudioComponentDescription desc = {kAudioUnitType_RemoteInstrument,
'iasp','rfoo', 0, 1};
OSStatus result = AudioOutputUnitPublish(&desc, CFSTR("MyMusicApp"),
1, outputUnit);
if (result != noErr)
NSLog(@"AudioOutputUnitPublish instrument result: %d", (int)result);
desc = { kAudioUnitType_RemoteGenerator, 'iasp', 'rfoo', 0, 1 };
result = AudioOutputUnitPublish(&desc, CFSTR("MyMusicApp"), 1, outputUnit);
if (result != noErr)
NSLog(@"AudioOutputUnitPublish generator result: %d", (int)result);
}
这是我的 plist 信息:
<key>AudioComponents</key>
<array>
<dict>
<key>manufacturer</key>
<string>rfoo</string>
<key>name</key>
<string>MyMusicApp</string>
<key>subtype</key>
<string>iasp</string>
<key>type</key>
<string>aurg</string>
<key>version</key>
<integer>1</integer>
</dict>
<dict>
<key>manufacturer</key>
<string>rfoo</string>
<key>name</key>
<string>MyMusicApp</string>
<key>subtype</key>
<string>iasp</string>
<key>type</key>
<string>auri</string>
<key>version</key>
<integer>1</integer>
</dict>
</array>
这是我得到的结果:
AudioOutputUnitPublish instrument result: -50
AudioOutputUnitPublish generator result: -50
我知道 OSStatus 代码 -50 表示参数无效...但我似乎无法弄清楚哪个参数无效。谁能帮我调试这里?谢谢!
只是想发布更多代码以便其他人可以帮助我:
我有两个音频单元,希望还有第三个 - MIDISynth(目前处于非事件状态)、MultiChannelMixer 和 RemoteIO 音频单元。我有一个连接到混音器音频单元的渲染回调。我猜我在我的 AUGraph 中连接有问题(我见过的所有示例都没有将音频渲染回调附加到音频单元,所以这可能是我做错的地方)。希望有人能指出我做错了什么!
代码如下:
- (AUGraph)createAUGraphWithSynth:(AudioUnit *)sUnit mixUnit:(AudioUnit *)mixUnit remoteUnit:(AudioUnit *)remUnit {
// Initializations
AUGraph graph = 0;
OSStatus result = noErr;
// Create graph nodes
AUNode mixerNode, ioNode;
// Create Component Descriptor
AudioComponentDescription cd;
cd.componentManufacturer = kAudioUnitManufacturer_Apple;
cd.componentFlags = 0;
cd.componentFlagsMask = 0;
// Init AUGraph
Check(result = NewAUGraph(&graph));
// Init Mixer unit
cd.componentType = kAudioUnitType_Mixer;
cd.componentSubType = kAudioUnitSubType_MultiChannelMixer;
Check(result = AUGraphAddNode(graph, &cd, &mixerNode));
// Init io Unit
cd.componentType = kAudioUnitType_Output;
cd.componentSubType = kAudioUnitSubType_RemoteIO;
Check(result = AUGraphAddNode(graph, &cd, &ioNode));
// Open AUGraph
Check(AUGraphOpen(graph));
// Get mixer unit
Check(AUGraphNodeInfo(graph, mixerNode, NULL, mixUnit));
// Get io unit
Check(AUGraphNodeInfo(graph, ioNode, NULL, remUnit));
// Set number of input busses
UInt32 numBuses = 1;
UInt32 size = sizeof(numBuses);
Check(AudioUnitSetProperty(*mixUnit,
kAudioUnitProperty_ElementCount,
kAudioUnitScope_Input,
0, &numBuses, size));
AudioStreamBasicDescription desc;
const int four_bytes_per_float = 4;
const int eight_bits_per_byte = 8;
for (int i = 0; i < numBuses; ++i) {
AURenderCallbackStruct callbackStruct;
callbackStruct.inputProc = outputCallback;
callbackStruct.inputProcRefCon = (__bridge void *)self;
Check(AUGraphSetNodeInputCallback(graph, mixerNode, i, &callbackStruct));
UInt32 size = sizeof(desc);
Check(AudioUnitGetProperty(*mixUnit,
kAudioUnitProperty_StreamFormat,
kAudioUnitScope_Input,
0, &desc, &size));
memset(&desc, 0, sizeof(desc));
desc.mSampleRate = SAMPLE_RATE;
desc.mFormatID = kAudioFormatLinearPCM;
desc.mFormatFlags = kAudioFormatFlagsNativeFloatPacked
| kAudioFormatFlagIsNonInterleaved;
desc.mBytesPerPacket = four_bytes_per_float;
desc.mFramesPerPacket = 1;
desc.mBytesPerFrame = four_bytes_per_float;
desc.mBitsPerChannel = four_bytes_per_float * eight_bits_per_byte;
desc.mChannelsPerFrame = 2;
Check(AudioUnitSetProperty(*remUnit,
kAudioUnitProperty_StreamFormat,
kAudioUnitScope_Input,
0, &desc, sizeof(desc)));
}
Check(AudioUnitSetProperty(*mixUnit,
kAudioUnitProperty_StreamFormat,
kAudioUnitScope_Output,
0, &desc, sizeof(desc)));
Check(AudioUnitGetProperty(*mixUnit,
kAudioUnitProperty_StreamFormat,
kAudioUnitScope_Output,
0, &desc, &size));
memset(&desc, 0, sizeof(desc));
desc.mSampleRate = SAMPLE_RATE;
desc.mFormatID = kAudioFormatLinearPCM;
desc.mFormatFlags = kAudioFormatFlagsNativeFloatPacked
| kAudioFormatFlagIsNonInterleaved;
desc.mBytesPerPacket = four_bytes_per_float;
desc.mFramesPerPacket = 1;
desc.mBytesPerFrame = four_bytes_per_float;
desc.mBitsPerChannel = four_bytes_per_float * eight_bits_per_byte;
desc.mChannelsPerFrame = 2;
Check(AudioUnitSetProperty(*mixUnit,
kAudioUnitProperty_StreamFormat,
kAudioUnitScope_Output,
0, &desc, sizeof(desc)));
// Must configure remote io unit:
Check(AudioUnitSetProperty(*remUnit,
kAudioUnitProperty_StreamFormat,
kAudioUnitScope_Output,
1, &desc, sizeof(desc)));
// Connect nodes (synth->output)
Check(AUGraphConnectNodeInput(graph, mixerNode, 0, ioNode, 0));
return graph;
}
最佳答案
AudioComponentDescription 中的最后一个字段,componentFlagsMask
,应该是 0,而不是 1。(参见 documentation。看起来至少有一个 tutorial 错误地将此字段识别为组件版本。 )
我不确定这是否是问题的唯一原因。其余代码看起来没问题,但我想项目的其他地方可能存在问题,例如。具有能力。
关于ios - 发布 iOS 音频单元,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35484665/
IO 设备如何知道属于它的内存中的值在memory mapped IO 中发生了变化? ? 例如,假设内存地址 0 专用于保存 VGA 设备的背景颜色。当我们更改 memory[0] 中的值时,VGA
我目前正在开发一个使用Facebook sdk登录(通过FBLoginView)的iOS应用。 一切正常,除了那些拥有较旧版本的facebook的人。 当他们按下“使用Facebook登录”按钮时,他
假设我有: this - is an - example - with some - dashesNSRange将使用`rangeOfString:@“-”拾取“-”的第一个实例,但是如果我只想要最后
Card.io SDK提供以下详细信息: 卡号,有效期,月份,年份,CVV和邮政编码。 如何从此SDK获取国家名称。 - (void)userDidProvideCreditCardInfo:(Car
iOS 应用程序如何从网络服务下载图片并在安装过程中将它们安装到用户的 iOS 设备上?可能吗? 最佳答案 您无法控制应用在用户设备上的安装,因此无法在安装过程中下载其他数据。 只需在安装后首次启动应
我曾经开发过一款企业版 iOS 产品,我们公司曾将其出售给大型企业,供他们的员工使用。 该应用程序通过 AppStore 提供,企业用户获得了公司特定的配置文件(包含应用程序配置文件)以启用他们有权使
我正在尝试将 Card.io SDK 集成到我的 iOS 应用程序中。我想为 CardIO ui 做一个简单的本地化,如更改取消按钮标题或“在此保留信用卡”提示文本。 我在 github 上找到了这个
我正在使用 CardIOView 和 CardIOViewDelegate 类,没有可以设置为 YES 的 BOOL 来扫描 collectCardholderName。我可以看到它在 CardIOP
我有一个集成了通话工具包的 voip 应用程序。每次我从我的 voip 应用程序调用时,都会在 native 电话应用程序中创建一个新的最近通话记录。我在 voip 应用程序中也有自定义联系人(电话应
iOS 应用程序如何知道应用程序打开时屏幕上是否已经有键盘?应用程序运行后,它可以接收键盘显示/隐藏通知。但是,如果应用程序在分屏模式下作为辅助应用程序打开,而主应用程序已经显示键盘,则辅助应用程序不
我在模拟器中收到以下错误: ImageIO: CGImageReadSessionGetCachedImageBlockData *** CGImageReadSessionGetCachedIm
如 Apple 文档所示,可以通过 EAAccessory Framework 与经过认证的配件(由 Apple 认证)进行通信。但是我有点困惑,因为一些帖子告诉我它也可以通过 CoreBluetoo
尽管现在的调试器已经很不错了,但有时找出应用程序中正在发生的事情的最好方法仍然是古老的 NSLog。当您连接到计算机时,这样做很容易; Xcode 会帮助弹出日志查看器面板,然后就可以了。当您不在办公
在我的 iOS 应用程序中,我定义了一些兴趣点。其中一些有一个 Kontakt.io 信标的名称,它绑定(bind)到一个特定的 PoI(我的意思是通常贴在信标标签上的名称)。现在我想在附近发现信标,
我正在为警报提示创建一个 trigger.io 插件。尝试从警报提示返回数据。这是我的代码: // Prompt + (void)show_prompt:(ForgeTask*)task{
您好,我是 Apple iOS 的新手。我阅读并搜索了很多关于推送通知的文章,但我没有发现任何关于 APNS 从 io4 到 ios 6 的新更新的信息。任何人都可以向我提供 APNS 如何在 ios
UITabBar 的高度似乎在 iOS 7 和 8/9/10/11 之间发生了变化。我发布这个问题是为了让其他人轻松找到答案。 那么:在 iPhone 和 iPad 上的 iOS 8/9/10/11
我想我可以针对不同的 iOS 版本使用不同的 Storyboard。 由于 UI 的差异,我将创建下一个 Storyboard: Main_iPhone.storyboard Main_iPad.st
我正在写一些东西,我将使用设备的 iTunes 库中的一部分音轨来覆盖 2 个视频的组合,例如: AVMutableComposition* mixComposition = [[AVMutableC
我创建了一个简单的 iOS 程序,可以顺利编译并在 iPad 模拟器上运行良好。当我告诉 XCode 4 使用我连接的 iPad 设备时,无法编译相同的程序。问题似乎是当我尝试使用附加的 iPad 时
我是一名优秀的程序员,十分优秀!