- Java 双重比较
- java - 比较器与 Apache BeanComparator
- Objective-C 完成 block 导致额外的方法调用?
- database - RESTful URI 是否应该公开数据库主键?
我已经成功创建了一些函数来获取 SNSpeechSynthesizer.startSpeakingString(string, url)
并通过闭包将生成的 .aiff 文件附加到 SCNAudioPlayer
并附加整个事情到 SCNNode
。
这将运行具有给定 SCNNode.position(x, y, z)
的音频片段。
一切都很好,但没有与 SCNAudioSource
相关的效果,除了音量、速率和混响本身什么都不做。
我想添加音频单元效果,如延迟回声法兰等,但我找不到相关信息,除了 AVAudioEngine
和 AVAudioFile
类似乎是SCNAudioSource
的父类(super class),AVAudioEngine
包含 AudioUnitPitc
h 等类。但是,我无法弄清楚SCNAudioSource
、SCNAudioPlayer
、AVAudioEngine
和AVAudioFile
之间有什么联系。没有在子类或父类(super class)中引用另一个,并且任何教程(例如下面)仅在 AVFoundation
中讲,而不是在 SceneKit
中讲。 http://www.jawadrashid.com/swift-tutorial-udacity-7/
非常感谢对我可以阅读更多相关内容的任何链接的任何帮助
编辑:我找到了另一个链接,该链接显示了使用 AVAudioNode
的 SCNAudioPlayer
构造函数。也许我可以通过以下方式扩展它:
class CustomAudioPlayer:SCNAudioPlayer{}
然后通过将 AudioUnit 附加到 AudioNode 来覆盖父类(super class) init?但是,这似乎不会出现在 AudioEngine 中。
这是 objective-c 中的以下链接:
编辑2:我找到了对音频单元的引用并执行了以下操作,但现在我遇到了段错误
命令因信号而失败:段错误:11
code:
let source = prepareSynth(welcome, url: URL)
source.volume = 500.0
source.reverbBlend = 30.0
source.rate = 0.8
let clip = SCNAudioPlayer(source: source)
let mixer = clip.audioNode as AVAudioNode!?
distortion.loadFactoryPreset(AVAudioUnitDistortionPreset.SpeechRadioTower)
mixer?.engine?.attachNode(distortion)
mixer?.engine?.connect(mixer!, to: distortion, format: nil)
return clip
最佳答案
因此,在进行了大量研究以将任何可用的 AVAudioUnitEffec* 效果放入 SceneKit 场景之后,我终于找到了一个解决方案,经过测试、尝试和尝试。
AVAudioEngine 的以下子类将1-实例化具有特定配置的AVAudioEngine2-添加了一些方法来封装错误处理和效果预设加载3-使用连线方法将每个播放器和效果器节点放入音频引擎图中4-创建 AVAudioPCMBuffer 实例,配置帧数,文件格式作为辅助方法,以简化从 SceneKit 调用这些函数
注意:多声道代码未包含在内,因为我没有环绕声 5.1 系统,并且我已经对从 AVAudioEnvironmentNode 类公开的 HRTF(头部相关传输函数)算法感到非常满意。请注意,尽管此算法是双耳格式,但它是计算 secret 集度最高的算法。
可能的补充:1-添加一个混响区域预设切换器,这需要断开音频引擎,将环境节点重新连接到新的混响预设(大厅、小房间等)2-从 SceneKit SCNNode 列表中创建一个基于 RayCast 的回声传输维度以添加更逼真的效果,即:你在 T 形路口的中央栏,一个敌人在路口顶部栏的左侧滑行,声音穿过 RayCast 离开敌人并反弹到面对你的墙上。 AVAudioUnitDelay 类具有内部函数来更改早期延迟以创建所需的回声效果,而无需在任何地方使用相同的效果清洗节点。
代码在这里:
import Foundation
import SceneKit
import AVFoundation
class AudioLayerEngine:AVAudioEngine{
var engine:AVAudioEngine!
var environment:AVAudioEnvironmentNode!
var outputBuffer:AVAudioPCMBuffer!
var voicePlayer:AVAudioPlayerNode!
var multiChannelEnabled:Bool!
//audio effects
let delay = AVAudioUnitDelay()
let distortion = AVAudioUnitDistortion()
let reverb = AVAudioUnitReverb()
override init(){
super.init()
engine = AVAudioEngine()
environment = AVAudioEnvironmentNode()
engine.attachNode(self.environment)
voicePlayer = AVAudioPlayerNode()
engine.attachNode(voicePlayer)
voicePlayer.volume = 1.0
outputBuffer = loadVoice()
wireEngine()
startEngine()
voicePlayer.scheduleBuffer(self.outputBuffer, completionHandler: nil)
voicePlayer.play()
}
func startEngine(){
do{
try engine.start()
}catch{
print("error loading engine")
}
}
func loadVoice()->AVAudioPCMBuffer{
let URL = NSURL(fileURLWithPath: NSBundle.mainBundle().pathForResource("art.scnassets/sounds/interface/test", ofType: "aiff")!)
do{
let soundFile = try AVAudioFile(forReading: URL, commonFormat: AVAudioCommonFormat.PCMFormatFloat32, interleaved: false)
outputBuffer = AVAudioPCMBuffer(PCMFormat: soundFile.processingFormat, frameCapacity: AVAudioFrameCount(soundFile.length))
do{
try soundFile.readIntoBuffer(outputBuffer)
}catch{
print("somethign went wrong with loading the buffer into the sound fiel")
}
print("returning buffer")
return outputBuffer
}catch{
}
return outputBuffer
}
func wireEngine(){
loadDistortionPreset(AVAudioUnitDistortionPreset.MultiCellphoneConcert)
engine.attachNode(distortion)
engine.attachNode(delay)
engine.connect(voicePlayer, to: distortion, format: self.outputBuffer.format)
engine.connect(distortion, to: delay, format: self.outputBuffer.format)
engine.connect(delay, to: environment, format: self.outputBuffer.format)
engine.connect(environment, to: engine.outputNode, format: constructOutputFormatForEnvironment())
}
func constructOutputFormatForEnvironment()->AVAudioFormat{
let outputChannelCount = self.engine.outputNode.outputFormatForBus(1).channelCount
let hardwareSampleRate = self.engine.outputNode.outputFormatForBus(1).sampleRate
let environmentOutputConnectionFormat = AVAudioFormat(standardFormatWithSampleRate: hardwareSampleRate, channels: outputChannelCount)
multiChannelEnabled = false
return environmentOutputConnectionFormat
}
func loadDistortionPreset(preset: AVAudioUnitDistortionPreset){
distortion.loadFactoryPreset(preset)
}
func createPlayer(node: SCNNode){
let player = AVAudioPlayerNode()
distortion.loadFactoryPreset(AVAudioUnitDistortionPreset.SpeechCosmicInterference)
engine.attachNode(player)
engine.attachNode(distortion)
engine.connect(player, to: distortion, format: outputBuffer.format)
engine.connect(distortion, to: environment, format: constructOutputFormatForEnvironment())
let algo = AVAudio3DMixingRenderingAlgorithm.HRTF
player.renderingAlgorithm = algo
player.reverbBlend = 0.3
player.renderingAlgorithm = AVAudio3DMixingRenderingAlgorithm.HRTF
}
}
e
关于swift - 将 AudioUnit 效果附加到 SceneKit 中的 SCNAudioSource 节点,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/33984205/
我正在使用 JavaFX 8 创建一个应用程序。我使用拖/放动态更改网格 Pane 的内容。我希望每行或每行/列迭代 GridPane 内容。JavaFX 允许通过指定行和列在 GridPane 中添
我正在尝试将图像拖放到div上。图像没有被拖到div上并给出以下错误 Uncaught TypeError: Failed to execute 'appendChild' on 'Node': pa
我正在 android studio 中创建内部构建 AR 导航。我正在寻找一种方法将 anchor 与其他 anchor 或 anchor 节点/节点“连接”起来。我不确定使用哪一个。基于我将强制用
我在 Hive 上运行一些作业:首先是 4 节点,然后是 2 节点。令我惊讶的是,我的 2 节点性能比我的 4 节点更好。 首先,我在一个 4 节点(4 个事件节点)上运行查询,然后关闭 2 个节点(
我有 Node* current ,我在其中存储指向列表“顶部”当前节点的指针。当我将一个新节点设置为当前节点时,出现错误: '=' : cannot convert from 'CircularDo
我是 dcos Mesos 的新手,在本地 Ubuntu 机器上安装了 dc os。 我可以查看 dcos 仪表板。 但我无法使用 dcos node ssh --master-proxy --lea
在 JavaFX 中,是否有类似 setLayout(); 的东西?或 setBounds(); ? 例如,我想将按钮定位到我想要的位置。 最佳答案 JavaFX 场景图上的所有内容都是 Node .
我正在开发一个 JavaFX 应用程序,其中我开发的类(从 javafx.scene.Parent 扩展)是根据用户在 ListView 控件中单击的条目动态创建的。 只是要清楚这个节点,它不是使用像
我正在尝试为节点-边缘关系创建一个类图,因为它可以在有向图中找到。我想传达的是,Nodes 引用了 Edges,Edges 也引用了 Nodes。每个 Edge 都恰好需要两个 Node(源和目标)。
在mapreduce作业期间,单个任务将在随机节点上运行,是否有任何方法限制应在其中运行任务的节点? 最佳答案 Hadoop不会选择节点来随机运行任务。考虑到数据局部性,否则将有很多网络开销。 任务与
有什么区别: a) nodetool 重建 b) nodetool 修复 [-pr] 换句话来说,各个命令到底是做什么的? 最佳答案 nodetool重建:类似于引导过程(当您向集群添加新节点时),但
我已将第一个 OneToMany 关系添加到我的 hibernate 3.6.10 项目中。这是一个类: /** * */ package com.heavyweightsoftware.leal
是否有可能找到正在监听触发当前函数的事件的元素? 在下面的代码中,event.target 返回 #xScrollPane 和 event.currentTarget 和 event 的最低子节点.f
我正在尝试覆盖我数据库中的一些数据。结构很简单,就是: recipes { user_1{ recipe_1{data} recipe_2{data} } user_2{
我使用 setInterval 来运行该函数,但它会多次执行函数 2... 如何在输入中插入一个值后执行函数 第一个输入与其余输入的距离不同 如何在插入 val(tab 选项)后将插入从 1 个输入移
我不知道代码有什么问题,但在 visual studio 中不断收到这些错误消息。 Error 18 error C1903: unable to recover from previous e
我正在尝试从其类中获取 SharePoint 搜索导航节点的对象。 var nodes = $("div.ms-qSuggest-listItem"); 我正在获取节点对象,现在想要获取“_promp
D:\nodeP>node main.js module.js:327 抛出错误; ^ 错误:在 Function.Module 的 Function.Module._resolveFilename
struct node{ int key, prior, cnt, val; node *l, *r; node(){} node(int nkey) : key(nkey),
我有以下代码使用迭代器将项目插入双链表。这就是我们被要求这样做的方式。代码有效,但问题是我有 24 字节的绝对内存泄漏。 NodeIterator insert(NodeIterator & itrP
我是一名优秀的程序员,十分优秀!