- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我是 ios 编程的初学者。我必须为我的学校做一个项目。目标是使用麦克风进行录音,然后应用高通滤波器并将其保存在 m4a 文件中。
在这个网站和许多其他网站上,我发现了很多相同的代码,但随着 swift 3 的到来,这些代码不再起作用。
我首先使用 AVAudioPlayer 录制和保存从我的麦克风中传出的内容。
然后我在 mpc 缓冲区中读取我的文件。
我从 float 组中的缓冲区中检索数据。
最后,我像找到的示例一样应用 FFT。
如果我显示缓冲区的数据(来自缓冲区的浮点表)这些包含一些东西。
如果我显示我的 VDSP 矢量,它包含数据。
但是当我应用 FFT 时,包含卷轴和虚部的 VDSP 输出结果返回“nan”值。
我不明白 FFT 的功能,也不明白结果“输出”是否包含频率,或者它是否只是我的 VDSP 的参数之一包含它们。 (真实或虚构):
然后我想到对这些结果应用过滤器,然后将我的值放回逆 FFT 中,以便通过修改重建 m4a 文件。
如果我的方法是错误的,或者是我的代码,如果你能向我解释
// recupere le lien du fichier audio a analysé
let url = getDocumentsDirectory().appendingPathComponent("recording.m4a")
// lancé l'audio dans le core AVaudioFile
let audioFile = try! AVAudioFile(forReading: url)
// nombre de frame dans l'audio
let frameCount = UInt32(audioFile.length)
print("frame count\(frameCount)")
//remplis un buffer avec les information du son et le nombre de framme
let buffer = AVAudioPCMBuffer(pcmFormat: audioFile.processingFormat, frameCapacity: frameCount)
do {
//lecture de l'audio dans le buffer
try audioFile.read(into: buffer, frameCount:frameCount)
print("lecture ok")
} catch {
//lecture échouer
}
print(buffer.floatChannelData?.pointee ?? "aucune valeur float")
// printer le buffer de byte de l'audio
print("\n buffer: \n");
for k in 1...frameCount
{
print("value buffer \(buffer.floatChannelData?.pointee[Int(k)])");
}
// définit un fonction log2n
let log2n = UInt(round(log2(Double(frameCount))))
// définit la taille de buffer final potentiel
let bufferSizePOT = Int(1 << log2n)
//crée une structure FFT
//Si zéro est renvoyé, la routine n'a pas réussi à allouer de stockage
let fftSetup = vDSP_create_fftsetup(log2n, Int32(kFFTRadix2))
//print fft
print("valeur du fftSetup \(fftSetup)")
// create packed real input
// séparation des buffer en nombre réel et imaginaire :
var realp = [Float](repeating: 0.0, count: bufferSizePOT/2)
var imagp = [Float](repeating: 0.0, count: bufferSizePOT/2)
/*
print("\n real and image: \n");
for k in 0..<realp.count
{
print("value real \(realp[k]) et value imaginaire \(imagp[k])");
}
*/
// construit un vecteur double contenant les real et les imaginaire
var output = DSPSplitComplex(realp: &realp, imagp: &imagp)
buffer.floatChannelData?.withMemoryRebound(to: DSPComplex.self, capacity: bufferSizePOT/2) {
/*
Copie le contenu d'un vecteur complexe intercalé C vers un vecteur complexe divisé Z; Précision unique.
void vDSP_ctoz(const DSPComplex *__C, vDSP_Stride __IC, const DSPSplitComplex *__Z, vDSP_Stride __IZ, vDSP_Length __N);
Paramètres
__C
Vecteur d'entrée complexe entrelacé à simple précision.
__IC
Stride pour C; Doit être un nombre pair.
__Z
Vecteur de sortie complexe à division simple.
za
Stride pour Z.
__N
Le nombre d'éléments à traiter.
*/
dspComplexStream in vDSP_ctoz(dspComplexStream, 2, &output, 1, UInt(bufferSizePOT / 2))
}
/*
calcul la série de fourier discrette du domaine temporel ver le domaine fréquentielle
paramètre :
func vDSP_fft_zrip(_ __Setup:
- --FFTSetup: l'objet FFTsetup
_ __C: pointeur sur le vecteur complex de sortie
_ __IC: pas entre les elements de --C, (a 1 pour des meilleures performance)
_ __Log2N: Il base 2 exposant du nombre d'éléments à traiter. Par exemple, pour traiter 1024 éléments,
spécifiez 10 pour le paramètre Log2N.
_ __Direction: FFTDirection : donne la direction de la discretisations.
time domain to the frequency domain = (forward).
frequency domain to the time domain (inverse).
)*/
vDSP_fft_zrip(fftSetup!, &output, 1, log2n, Int32(FFTDirection(FFT_FORWARD)))
print("\nSpectrum:\n");
for i in 0..<realp.count
{
print("value de i \(i), réel : \(output.realp[i]), imaginaire : \(imagp[i])");
}
var fft = [Float](repeating:0.0, count:Int(bufferSizePOT / 2))
let bufferOver2: vDSP_Length = vDSP_Length(bufferSizePOT / 2)
vDSP_zvmags(&output, 1, &fft, 1, bufferOver2)
for i in 0..<bufferSizePOT/2
{
print("value de buff2 \(fft[i])");
}
// termine le processus FFT
vDSP_destroy_fftsetup(fftSetup)
编辑:仅播放带有低通滤波器的歌曲并且不起作用
engine = AVAudioEngine()
player = AVAudioPlayerNode()
player.volume = 1.0
let path = Bundle.main.path(forResource: "audio10to1000", ofType: "wav")!
let url = NSURL.fileURL(withPath: path)
let file = try? AVAudioFile(forReading: url)
var mainMixer = AVAudioMixerNode()
mainMixer = engine.mainMixerNode
engine.attach(player)
EQNode = AVAudioUnitEQ(numberOfBands: 1)
var filterParams = EQNode.bands[0] as AVAudioUnitEQFilterParameters
filterParams.filterType = .lowPass
filterParams.frequency = 500.0
filterParams.bypass = false
engine.attach(EQNode)
engine.connect(player, to: EQNode, format: file?.processingFormat)
engine.connect(EQNode, to: mainMixer, format: file?.processingFormat)
// engine.connect(player, to: mainMixer, format: file?.processingFormat)
player.scheduleFile(file!, at: nil, completionHandler: nil)
engine.prepare()
do {
try engine.start()
} catch _ {
print("******************* erreur *************")
}
player.play()
最佳答案
您的代码正在运行。您的设置不符合您的需求。
设置filterParams.gain = -96.0
(最小可能值)
低通滤波器没有带宽
,删除它。
要获得更激进的结果,请先将截止频率设置为 100 HZ:
filterParams.frequency = 100.0
您对低通滤波器结果的期望(截止频率以上 100% 的截断)与滤波器的实际情况不符。根据实现(使用的算法和顺序),过滤器或多或少地切断。
查看此典型过滤器响应 from Wikipedia :
关于swift 3 FFT 获取声音频率 m4a,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40960585/
我有一个包含 34 个变量和大约 25,000 个观测值的数据集。每个观察都涉及一个特定事件。它的格式如下: no id date .... 1 363 006
我已将 R 连接到 Twitter 并使用 R 中的 searchTwitter 函数进行抓取,并清除标点符号、小写字母等结果数据。现在我正在尝试执行以下操作: 计算自 2015 年 1 月 至 20
我正在研究项目,需要可视化频谱分析以设置一些精确参数。现在,我将垃圾箱转换为屏幕空间,因为在线性空间中,较低频率的幅度被压缩在一起。这是我在C++中的代码: float windowSize = 64
我正在尝试使用MATLAB导入WAV文件并创建如下所示的图表类型。我基本上是在尝试获取频率信息并根据分贝对其进行绘制。这是我正在使用的代码,但似乎无法正确提取频率信息: [x fs]=wavread(
我有一个 GUI,可以计算字符串中第一个字母的出现次数。我希望它以列格式计算所有字母,例如: 这是我到目前为止所拥有的: import java.awt.BorderLayout; import ja
我有一个由许多变量组成的全国调查,就像这个(为了简单起见,我省略了一些变量): year id y.b sex income married pens weight 2002
我被要求报告我们客户的联系频率,即每周、每月、每季度或每年看到多少客户。 当在论坛中讨论“频率”时,它们通常是指某个值在表中存在的次数。 我可以获得客户的联系人数量:- select A.cl
我正在尝试制作一款游戏,当麦克风发出足够响亮的声音时,我的角色会射击(在 Unity 中)。但是我不知道如何开始。 感谢您的帮助! 最佳答案 您可以通过使用 AudioSource.GetOutput
尝试计算字符数并改进我的代码,我做了一些更改,而不是使用 while 循环。好奇是否有人对我如何改进我的代码以使其更专业且更便宜有任何建议? #include int countingCharact
我正在创建一个 MySQL 数据库,其中包含大量带有时间戳的条目。这些条目将附加到特定用户和另一个索引(例如博客作者和他的几个网站)。计算用户/全局每日条目图表的最佳方法是什么。 我的两种方法是使用
我创建了一项调查并将其发送出去。该调查要求用户提供电子邮件,然后要求他们从包含 8 个不同选项的下拉菜单中选择要吃哪顿饭。有些人使用同一封电子邮件多次填写调查,但食物选择不同。 我有一个如下所示的 M
我有一个 MySQL 数据库: Date Customer_ID 我怎样才能把它变成: Customer_ID | Count_Visits_Past_Week | Count_Visits_
对于非常大的数据集,如何使用 gnuplot 仅在第一个和最后一个数据点的 x 轴上放置标记/标签? 最佳答案 在 gnuplot 4.6 及更高版本中,您可以使用命令 stats 'data.dat
我正在寻找一种方法来为具有共同词根/含义的单个词生成数值概率值。 用户将使用“舞者”、“跳舞”、“跳舞”等词生成内容。 如果“dancer”被提交了 30 次,跳舞了 5 次,我只需要一个值“danc
给定一个包含如下内容的数据集: [2, 3, 4, 5, 6, 7, 8, 9, 10, 15, 20, 25, 30, 35, 40, 45, 50, 55, 65, 75, 85, 86, 87,
我想将声音的音高绘制成图表。 目前我可以绘制幅度。下图是由 getUnscaledAmplitude() 返回的数据创建的: AudioInputStream audioInputStream = A
在 Javascript 中,我试图获取一个初始的数值数组并计算其中的元素。理想情况下,结果将是两个新数组,第一个指定每个唯一元素,第二个包含每个元素出现的次数。不过,我愿意接受有关输出格式的建议。
我正在编写一个多线程OpenMPI应用程序,使用来自多个线程的MPI_Isend和MPI_Irecv在InfiniBand RDMA的各个列之间每秒交换数百条消息。 传输量约为400-800KByte
这个站点上有很多问题,询问如何在给定频率下创建简单的正弦波。我想做的是获取阵列或列表或任何频率,然后连续连续播放它们(而不是和弦),听起来有点像旧PC扬声器。我尝试使用Console.Beep,但是它
我使用我的App捕获声音。假设此声音是正弦1 KHz声音,并且存在背景声音。如何识别此1 KHz声音出现在声音上? 我的意思是,我可以想象如何在图像中找到元素,例如,如果您要在图像上寻找黄色正方形,那
我是一名优秀的程序员,十分优秀!