gpt4 book ai didi

audiokit - 为什么新的 AKSequencer 不发出任何声音?

转载 作者:行者123 更新时间:2023-12-04 01:36:03 27 4
gpt4 key购买 nike

我有一个相当复杂的应用程序,到目前为止一直在使用 AKAppleSequencer,但由于该音序器不时弹出一些奇怪的行为和错误,我一直希望转移到更新的 AKSequencer。不幸的是,新的音序器似乎没有出现在 Playgrounds 或很多文档中,所以我一直在做一些猜测。我以(对我而言)似乎有意义的方式连接了所有内容,并且正如我提到的那样,使用 AKAppleSequencer 时工作正常,但使用 AKSequencer 时它运行但没有产生输出。

我的代码结构被分解成多个部分,因此节点图在不同的位置构建,所以我必须在这里以 block 的形式显示它,删除不相关的行。

// This happens during setup
mainMixer = AKMixer()
mainMixer.volume = volume
AudioKit.output = mainMixer

// In later code, the sequencer is constructed
sequencer = AKSequencer()
sequencer!.tempo = tempo

// After the sequencer is created, I create various nodes and tracks, like this
let trackNode = trackDefinition.createNode()

let track = sequencer.addTrack(for: trackNode)
track >>> mainMixer

那里有一行,我在一个叫做 trackDefinition 的东西上调用“createNode()”。我认为该类的详细信息与此处无关,但这是该方法代码主体的示例。这非常简单。

func createNode() -> AKNode {
let pad = AKMIDISampler()
do {
try pad.loadSoundFont(partConfiguration.settings["soundFontName"]!,
preset: Int(partConfiguration.settings["preset"]!)!,
bank: Int(partConfiguration.settings["bank"]!)!)
} catch {
print("Error while loading Sound Font in PadTrackDefinition: \(error)")
}
return pad
}

该代码似乎工作正常。我只是想说明我正在创建一个 AKMIDISampler 节点,加载一个 soundfont,然后使用该节点在 AKSequencer 中创建一个轨道。然后我将轨道附加到主混音器以进行输出。

我使用 AudioKit.printConnections() 来获得一些确认,这就是它的样子。

(1]AUMultiChannelMixer    <2 ch,  44100 Hz, Float32, non-inter> -> (0]AudioDeviceOutput) bus: 0
(2]Local AKSequencerTrack <2 ch, 44100 Hz, Float32, non-inter> -> (1]AUMultiChannelMixer) bus: 0

非常简单... Track >>> Mixer >>> Output播放时不发出任何声音。

我也这样试过:

(0]AUSampler           <2 ch,  44100 Hz, Float32, non-inter> -> (2]AUMultiChannelMixer) bus: 0
(2]AUMultiChannelMixer <2 ch, 44100 Hz, Float32, non-inter> -> (1]AudioDeviceOutput) bus: 0

这就是 AKMIDISampler >>> Mixer >>> Output(采样器用于创建轨道)。那也不会发出任何声音。

我还看到了this answer到 StackOverflow 上的类似问题,所以我尝试了这种方法。这给了我这个连接图:

(0]AUMultiChannelMixer    <2 ch,  44100 Hz, Float32, non-inter> -> (1]AudioDeviceOutput) bus: 0
(2]Local AKSequencerTrack <2 ch, 44100 Hz, Float32, non-inter> -> (0]AUMultiChannelMixer) bus: 0
(3]AUSampler <2 ch, 44100 Hz, Float32, non-inter> -> (0]AUMultiChannelMixer) bus: 1

那将是[AKMIDISampler, Track] >>> Mixer >>> Output。仍然……没有声音。

我在这里做错了什么?是否有一些更具体的方法可以将新的音序器轨道连接到我不理解的信号图中?

更新: 奇怪/有趣/有趣的附录,如果我在节点构造代码之后立即添加此代码,它会产生预期的音符,所以我知道至少音频引擎本身已连接:

 let midiNode = trackNode as! AKMIDISampler
try! midiNode.play(noteNumber: 60,
velocity: MIDIVelocity(127),
channel: MIDIChannel(8))

最佳答案

我想通了,并想在这里发布答案,供 future 可能对此感到困惑的开发人员,也供 AudioKit 核心团队查看,以便他们了解 API 中可能不明显的内容。

这里问题的根源是 AKSequencer 不是 AKAppleSequencer 的直接替代品,尽管两者的 API 非常相似。

需要指出的一件事:我已经确认实际上有必要将轨道本身和轨道的目标节点都添加到信号链中以获得声音输出。所以从我上面的例子中,你需要这个:[AKMIDISampler, Track] >>> 混音器 >>> 输出

这有点奇怪和令人困惑,因为它根本不明显,我应该在它们之间放置效果节点。我还没有玩过,但是让这些节点在信号链中都是兄弟节点似乎很奇怪。我认为它看起来像这样:Track >>> AKMIDISampler >>> Mixer >>> Output

这对我来说更有意义。好吧。

无论如何,我提到还有一些其他因素是问题的根源。关键区别在于,使用 AKAppleSequencer 时,轨道长度可以从 0 开始,然后随着您向它们添加额外的音符而增长。这是我使用的方法,因为我从空轨道开始,然后按程序填充它们。

使用 AKSequencer,它似乎不会那样工作。长度从 4.0 开始,而不是 0,并且它不会在您向轨道添加音符时自动增长。我必须手动计算适合我的笔记所需的长度,然后使用 track.length = desiredLength 设置该长度。好消息是,AKSequencer 能够理解使用音轨的长度,因此您可以只在音轨上设置它,而不是音序器本身,如果您愿意的话。

另一个显着差异是 stop() 在 sequencer 上的行为。在 AKAppleSequencer 上,调用 stop() 也会停止所有音符的播放。在新的 AKSequencer 上,同样的方法将继续播放音符。您需要像这样在轨道上循环:

sequencer.stop()
for track in sequencer.tracks {
track.stopPlayingNotes()
}

我知道 AKSequencer 是全新的,所以像这样的事情是可以预料的。从长远来看,我仍然希望它会比 AKAppleSequencer 更好。

我希望这个解释能帮助像我这样无法切换到新音序器的人!

关于audiokit - 为什么新的 AKSequencer 不发出任何声音?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59527171/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com