- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
一段时间以来我一直遇到这个问题,并编写了以下可以作为应用程序的主视图 Controller 文件运行的 swift 文件。执行后,它将播放一段短促的 1kHz 正弦波。它将同时从音频接口(interface)的输入进行记录。
目前我已经将输出插入到输入中进行测试。但这也可能是内置扬声器和内置麦克风的计算机(运行应用程序前只需检查系统设置中的音量,因为它会自动播放)
我无法得到准确的结果:
import UIKit
import AVFoundation
var globalSampleRate = 48000
class ViewController: UIViewController {
var micBuffer:[Float] = Array(repeating:0, count:10000)
var referenceBuffer:[Float] = Array(repeating:0, count:10000)
var running:Bool = false
var engine = AVAudioEngine()
override func viewDidLoad() {
super.viewDidLoad()
let syncQueue = DispatchQueue(label:"Audio Engine")
syncQueue.sync{
initializeAudioEngine()
while running == true {
}
engine.stop()
writetoFile(buff: micBuffer, name: "Mic Input")
writetoFile(buff: referenceBuffer, name: "Reference")
}
}
func initializeAudioEngine(){
var micBufferPosition:Int = 0
var refBufferPosition:Int = 0
let frequency:Float = 1000.0
let amplitude:Float = 1.0
let signal = { (time: Float) -> Float in
return amplitude * sin(2.0 * Float.pi * frequency * time)
}
let deltaTime = 1.0 / Float(globalSampleRate)
var time: Float = 0
let micSinkNode = AVAudioSinkNode() { (timeStamp, frames, audioBufferList) ->
OSStatus in
let ptr = audioBufferList.pointee.mBuffers.mData?.assumingMemoryBound(to: Float.self)
var monoSamples = [Float]()
monoSamples.append(contentsOf: UnsafeBufferPointer(start: ptr, count: Int(frames)))
for frame in 0..<frames {
self.micBuffer[micBufferPosition + Int(frame)] = monoSamples[Int(frame)]
}
micBufferPosition += Int(frames)
if micBufferPosition > 8000 {
self.running = false
}
return noErr
}
let srcNode = AVAudioSourceNode { _, _, frameCount, audioBufferList -> OSStatus in
let ablPointer = UnsafeMutableAudioBufferListPointer(audioBufferList)
for frame in 0..<Int(frameCount) {
let value = signal(time)
time += deltaTime
for buffer in ablPointer {
let buf: UnsafeMutableBufferPointer<Float> = UnsafeMutableBufferPointer(buffer)
buf[frame] = value
self.referenceBuffer[refBufferPosition + frame] = value
}
}
refBufferPosition += Int(frameCount)
return noErr
}
let inputFormat = engine.inputNode.inputFormat(forBus: 0)
let outputFormat = engine.outputNode.outputFormat(forBus: 0)
let nativeFormat = AVAudioFormat(commonFormat: .pcmFormatFloat32,
sampleRate: Double(globalSampleRate),
channels: 1,
interleaved: false)
let formatMixer = AVAudioMixerNode()
engine.attach(formatMixer)
engine.attach(micSinkNode)
engine.attach(srcNode)
//engine.connect(engine.inputNode, to: micSinkNode, format: inputFormat)
engine.connect(engine.inputNode, to: formatMixer, format: inputFormat)
engine.connect(formatMixer, to: micSinkNode, format: nativeFormat)
engine.connect(srcNode, to: engine.mainMixerNode, format: nativeFormat)
engine.connect(engine.mainMixerNode, to: engine.outputNode, format: outputFormat)
print("micSinkNode Format is \(micSinkNode.inputFormat(forBus: 0))")
print("inputNode Format is \(engine.inputNode.inputFormat(forBus: 0))")
print("outputNode Format is \(engine.outputNode.outputFormat(forBus: 0))")
print("formatMixer Format is \(formatMixer.outputFormat(forBus: 0))")
engine.prepare()
running = true
do {
try engine.start()
} catch {
print("Error")
}
}
}
func writetoFile(buff:[Float], name:String){
let outputFormatSettings = [
AVFormatIDKey:kAudioFormatLinearPCM,
AVLinearPCMBitDepthKey:32,
AVLinearPCMIsFloatKey: true,
AVLinearPCMIsBigEndianKey: true,
AVSampleRateKey: globalSampleRate,
AVNumberOfChannelsKey: 1
] as [String : Any]
let fileName = name
let DocumentDirURL = try! FileManager.default.url(for: .documentDirectory, in: .userDomainMask, appropriateFor: nil, create: true)
let url = DocumentDirURL.appendingPathComponent(fileName).appendingPathExtension("wav")
print("FilePath: \(url.path)")
let audioFile = try? AVAudioFile(forWriting: url, settings: outputFormatSettings, commonFormat: AVAudioCommonFormat.pcmFormatFloat32, interleaved: false)
let bufferFormat = AVAudioFormat(settings: outputFormatSettings)
let outputBuffer = AVAudioPCMBuffer(pcmFormat: bufferFormat!, frameCapacity: AVAudioFrameCount(buff.count))
for i in 0..<buff.count {
outputBuffer?.floatChannelData!.pointee[i] = Float(( buff[i] ))
}
outputBuffer!.frameLength = AVAudioFrameCount( buff.count )
do{
try audioFile?.write(from: outputBuffer!)
} catch let error as NSError {
print("error:", error.localizedDescription)
}
}
如果我运行这个应用程序,控制台将打印出创建的两个波形的 url(一个是生成的正弦波,另一个是记录的麦克风输入)。如果我在 daw 中检查这些,我会得到以下信息。您可以看到两个正弦波不同步。这让我相信采样率是不同的,但是打印到控制台的格式告诉我它们没有不同。
最初 inputNode 直接连接到 micSinkNode,但是我插入了一个 AVAudioMixerNode 以尝试在使用 AVAudioSinkNode 之前转换格式。
目标是能够使用任何使用自己的设置运行的 sampleRate 硬件,并将样本保存到应用程序首选的“ native 设置”。 (即应用程序将以 48kHz 的频率进行数字压缩。我希望能够使用 96k 硬件和不同的 channel 数)。
任何人都可以建议为什么这不起作用?
最佳答案
AVAudioSinkNode 不支持格式转换。
它必须处理硬件输入格式的数据。
引用:来自 WWDC 2019 的演讲,此处约 3 分 55 秒: https://developer.apple.com/videos/play/wwdc2019/510/
附言我目前正在努力在设备上设置一个非默认采样率(我假设硬件支持它,因为我从可用采样率列表中选择它),但即使在这种情况下非默认采样率,接收器完全停止工作(没有崩溃,只是没有被调用)。
关于swift AVAudioEngine 和 AVAudioSinkNode sampleRate 转换,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58781271/
有没有办法在 .swift 文件(编译成 .swift 模块)中声明函数,如下所示: 你好.swift func hello_world() { println("hello world")
我正在尝试使用 xmpp_messenger_ios 和 XMPPFramework 在 iOS 上执行 MUC 这是加入房间的代码。 func createOrJoinRoomOnXMPP()
我想在我的应用程序上创建一个 3D Touch 快捷方式,我已经完成了有关快捷方式本身的所有操作,它显示正确,带有文本和图标。 当我运行这个快捷方式时,我的应用程序崩溃了,因为 AppDelegate
我的代码如下: let assetTag = Expression("asset_tag") let query2 = mdm.select(mdm[assetTag],os, mac, lastRe
我的 swift 代码如下所示 Family.arrayTuple:[(String,String)]? = [] Family.arrayTupleStorage:String? Family.ar
这是我的 JSON,当我读取 ord 和 uniq 数据时出现错误 let response2 : [String: Any] = ["Response":["status":"SUCCESS","
我想将 swift 扩展文件移动到 swift 包中。但是,将文件移动到 swift 包后,我遇到了这种错误: "Type 'NSAttributedString' has no member 'ma
使用CocoaPods,我们可以设置以下配置: pod 'SourceModel', :configurations => ['Debug'] 有什么方法可以用 Swift Package Manag
我正在 Xcode 中开发一个 swift 项目。我将其称为主要项目。我大部分都在工作。我在日期选择器、日期范围和日期数学方面遇到了麻烦,因此我开始了另一个名为 StarEndDate 的项目,其中只
这是 ObjectiveC 代码: CCSprite *progress = [CCSprite spriteWithImageNamed:@"progress.png"]; mProgressBar
我正在创建一个命令行工具,在 Xcode 中使用 Swift。我想使用一个类似于 grunt 的配置文件确实如此,但我希望它是像 Swift 包管理器的 package.swift 文件那样的快速代码
我假设这意味着使用系统上安装的任何 swift 运行脚本:#!/usr/bin/swift 如何指定脚本适用的解释器版本? 最佳答案 Cato可用于此: #!/usr/bin/env cato 1.2
代码说完全没问题,没有错误,但是当我去运行模拟器的时候,会出现这样的字样: (Swift.LazyMapCollection (_base:[ ] 我正在尝试创建一个显示报价的报价应用。 这是导入
是否可以在运行 Swift(例如 Perfect、Vapor、Kitura 等)的服务器上使用 RealmSwift 并使用它来存储数据? (我正在考虑尝试将其作为另一种解决方案的替代方案,例如 no
我刚开始学习编程,正在尝试完成 Swift 编程书中的实验。 它要求““编写一个函数,通过比较两个 Rank 值的原始值来比较它们。” enum Rank: Int { case Ace = 1 ca
在您将此问题标记为重复之前,我检查了 this question 它对我不起作用。 如何修复这个错误: error: SWIFT_VERSION '5.0' is unsupported, suppo
从 Xcode 9.3 开始,我在我的模型中使用“Swift.ImplicitlyUnwrappedOptional.some”包裹了我的字符串变量 我不知道这是怎么发生的,但它毁了我的应用程序! 我
这个问题在这里已经有了答案: How to include .swift file from other .swift file in an immediate mode? (2 个答案) 关闭 6
我正在使用 Swift Package Manager 创建一个应用程序,我需要知道构建项目的配置,即 Debug 或 Release。我试图避免使用 .xcodeproj 文件。请有人让我知道这是否
有一个带有函数定义的文件bar.swift: func bar() { println("bar") } 以及一个以立即模式运行的脚本foo.swift: #!/usr/bin/xcrun s
我是一名优秀的程序员,十分优秀!