- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试读取.wav文件,并找到信号的最主要频率。
我使用this topic读取文件,然后使用bytesToFloat函数将结果转换为float。
最后,将阵列复制到fftw_complex后,我运行FFTW的计划,找到模数(sqrt(real*real + im*im)
)并找到最大值,但是结果与信号的频率不匹配,并且输出通常不是数字。
我正在使用的.wav文件是110 Hz(A2)频率found on Wikipedia。
我的问题是:
浮点转换正确完成了吗?
为什么输出 vector 在fft之后返回NaN?
如何读取.wav文件,以便可以使用fftw?
感谢您阅读任何帮助,不胜感激。
完整代码:
#include <math.h>
#include <fftw3.h>
#include "Reader.h"
#include <iostream>
#include <string>
#include <fstream>
#include <cstdint>
using namespace std;
typedef struct WAV_HEADER
{
/* RIFF Chunk Descriptor */
uint8_t RIFF[4]; // RIFF Header Magic header
uint32_t ChunkSize; // RIFF Chunk Size
uint8_t WAVE[4]; // WAVE Header
/* "fmt" sub-chunk */
uint8_t fmt[4]; // FMT header
uint32_t Subchunk1Size; // Size of the fmt chunk
uint16_t AudioFormat; // Audio format 1=PCM,6=mulaw,7=alaw, 257=IBM Mu-Law, 258=IBM A-Law, 259=ADPCM
uint16_t NumOfChan; // Number of channels 1=Mono 2=Sterio
uint32_t SamplesPerSec; // Sampling Frequency in Hz
uint32_t bytesPerSec; // bytes per second
uint16_t blockAlign; // 2=16-bit mono, 4=16-bit stereo
uint16_t bitsPerSample; // Number of bits per sample
/* "data" sub-chunk */
uint8_t Subchunk2ID[4]; // "data" string
uint32_t Subchunk2Size; // Sampled data length
} wav_hdr;
int getFileSize(FILE* inFile);
float bytesToFloat(int8_t b0, int8_t b1, int8_t b2, int8_t b3);
void WavRead(string fileName, int& samples, float* floatBuffer);
using namespace std;
int main(void) {
fftw_complex *in, *out;
fftw_plan p;
int numSamples=0;
float* floatBuffer;
float* dest;
floatBuffer = (float*)malloc(sizeof(float));
WavRead("110.wav", numSamples, floatBuffer);
in = (fftw_complex*)fftw_malloc(numSamples*sizeof(fftw_complex));
out = (fftw_complex*)fftw_malloc(numSamples*sizeof(fftw_complex));
for (int i = 0; i < numSamples; i++)
{
in[i][0] = floatBuffer[i];
in[i][1] = (float)0;
}
p = fftw_plan_dft_1d(numSamples, in, out, FFTW_FORWARD, FFTW_ESTIMATE);
fftw_execute(p);
dest = (float*)malloc(sizeof(float)*numSamples);
for (int i = 0; i < numSamples; i++) {
dest[i] = std::sqrt(out[i][0] * out[i][0] + out[i][1] * out[i][1]);
}
double max = 0;
int index=0;
for (int i = 0; i < numSamples; i++) {
if (dest[i] > max) {
max = dest[i];
index = i;
}
}
cout << endl << index << endl << max << endl;
fftw_destroy_plan(p);
fftw_cleanup();
system("pause");
return 0;
}
void WavRead(string fileName, int& samples, float* floatBuffer)
{
wav_hdr wavHeader;
int headerSize = sizeof(wav_hdr), filelength = 0;
const char* filePath;
filePath = fileName.c_str();
FILE* wavFile = fopen(filePath, "r");
if (wavFile == nullptr)
{
fprintf(stderr, "Unable to open wave file: %s\n", filePath);
system("pause");
}
//Read the header
size_t bytesRead = fread(&wavHeader, 1, headerSize, wavFile);
if (bytesRead > 0)
{
//Read the data
uint16_t bytesPerSample = wavHeader.bitsPerSample / 8; //Number of bytes per sample
uint64_t numSamples = wavHeader.ChunkSize / bytesPerSample; //How many samples are in the wav file?
samples = numSamples;
static const uint16_t BUFFER_SIZE = numSamples*sizeof(float);
int8_t* buffer = new int8_t[BUFFER_SIZE];
floatBuffer = (float*)malloc(sizeof(float)*numSamples);
while ((bytesRead = fread(buffer, sizeof buffer[0], BUFFER_SIZE / (sizeof buffer[0]), wavFile)) > 0)
{
}
for (int i = 0; i < numSamples * 4; i += 4)
{
floatBuffer[i / 4] = bytesToFloat(i, i + 1, i + 2, i + 3);
}
delete[] buffer;
buffer = nullptr;
}
fclose(wavFile);
}
// find the file size
int getFileSize(FILE* inFile)
{
int fileSize = 0;
fseek(inFile, 0, SEEK_END);
fileSize = ftell(inFile);
fseek(inFile, 0, SEEK_SET);
return fileSize;
}
float bytesToFloat(int8_t b0, int8_t b1, int8_t b2, int8_t b3)
{
int8_t byte_array[] = { b3, b2, b1, b0 };
float result;
std::copy(reinterpret_cast<const char*>(&byte_array[0]),
reinterpret_cast<const char*>(&byte_array[4]),
reinterpret_cast<char*>(&result));
return result;
}
最佳答案
WAV
是容器格式(RIFF
容器的类型)。作为容器,它可以对在记录机上向编解码器注册的任何类型的编解码器/格式进行编码。每个编解码器都有一个FOURCC
。即使您的float转换对于PCM
(调制脉冲编码-表示样本按其原样记录)格式是正确的,但如果编码的音频流不是PCM
,也会失败。因此,您必须在代码中确保AudioFormat
为1(PCM)。有时这称为RAW编码。
如果不是原始格式,则mu-law和ADPCM
编解码器也不会太复杂,但是最好还是需要RAW
格式。如果没有,您需要将解码库集成到您的项目中。这样做的方式很大程度上取决于您所使用的平台(Linux,Windows,Mac)。在您的代码中,我看不到Windows库的任何提示,因此,如果您使用的是Linux,则需要安装lame
和lame-dev
软件包(这取决于您使用的发行版),以了解有关API
的一些信息。
解码取决于实际库的API,但通常:
关于c++ - 解释fftw的.wav数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/36558860/
如果已知该确切样本存在于 wav 中的某处(但可能与其他声音混合),是否可以使用 FFT 找到较长 wav 中出现的小 wav 样本? 编辑 (收到两个回复后):如果我有一个包含所有已知声音的库,这些
我对 .NET 中的音频完全陌生,所以请多多包涵。 我的目标是创建一个具有两个 channel 的 wav 文件。左声道将包含语音消息(使用 SpeechSynthesizer 生成的流),右声道需要
我的大部分信息都来自其他stackoverflow帖子,但没有一个真正有用。 import UIKit import AVFoundation class FaceButtonSc
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。 关闭 3 年前。
这可能是一个非常简单的问题;我将一个单声道 WAV 文件转换为一个 short[] 数组,并且我有一个将其写回 WAV 文件的函数。一切正常。 (writeBuffer 是 short[] 数组) b
我们的应用程序需要知道它加载的音频文件的样本数。我们使用的库可以可靠地确定采样率,但不能确定样本数。我们是否可以仅从文件大小和采样率来计算样本数? 最佳答案 马克说什么。不,通常您需要解释标题。但是,
我正在用java做一个项目,需要我加密wave文件。那么,是否有一个直接的过程可以将波形文件转换为二进制文件并返回?我将对二进制数据应用加密算法。 最佳答案 是的。 File file = new F
我想知道如何从 .wav 文件中获取样本以执行两个 .wav 文件的窗口连接。 谁能告诉我怎么做? 最佳答案 wave标准库的模块是关键:当然在代码顶部的 import wave 之后,wave.op
我有一个几分钟长的 .wav 文件,我想将其分成不同的 10 秒 .wav 文件。 到目前为止,这是我的 python 代码: import wave import math def main(fil
我在 ffmpeg 中使用以下命令合并多个 wav 文件: -f concat -safe 0 -i /storage/emulated/0/AudioClipsForSpeakerRecogniti
我正在尝试用python实现主动降噪。我的项目由两组代码组成: 录音代码 声音过滤代码 我的目标是当您运行该程序时,它将开始通过麦克风录音。录音完成后,会生成一个名为“file1.wav”的保存文件,
我正在尝试制作一个音乐识别系统。我担心我可能没有按照预期读取 wav 样本,而且我可能会应用错误的窗口大小来进行 FFT 和其他操作。 如果你能帮我的话,那就太好了。 首先,我有一些关于 Wavs 中
如何使用 java 合并两个 wav 文件? 我试过了 this但它没有正常工作,他们还有其他方法吗? 最佳答案 如果您直接处理 wav 文件的字节,您可以在任何编程语言中使用相同的策略。对于此示例,
尝试为我的 previous question 找到解决方法,我想将用 byte[](具有 wav header )编写的 16k 8 位单声道 wav 转换为 8k 8 位单声道流/字节 []。 是
目前我正在使用一个语音到文本的翻译模型,该模型采用 .wav 文件并将音频中的可听语音转换为文本转录本。该模型之前曾用于直接录制的 .wav 音频录音。但是现在我正在尝试对视频中最初出现的音频做同样的
试图在 python 中将 wav 文件转换为 wav uLaw。 使用 pydub 的 AudioSegment,我可以使用以下命令转换为 mp3: AudioSegment.from_wav(fr
我在 xcode 项目中添加了 LibFlac。然后我在我的项目中添加了来自 Libflac 的decode/main.c。我通过了 infile.flac 并运行了项目的可执行文件,但它给出了以下错
大家好,感谢您的阅读。 我想使用 Python 的 scipy.io.wavfile 对一首歌进行一些分析。由于我只有 .mp3 格式的歌曲,因此我使用 ffmpeg 将文件转换为 .wav,方法如下
我需要连接两个音频波,以便最终输出的音频波应该有一个更平滑的交汇点。我的意思是,在连接点,假设 10 秒钟,第一个音频应该开始淡出,而另一个音频开始拾取。 我已经能够连接两个音频文件并生成单个输出,但
我需要将一个 wav 文件转换为 8000Hz 16 位单声道 Wav。我已经有一个代码,它适用于 NAudio 库,但我想使用 MemoryStream 而不是临时文件。 using System.
我是一名优秀的程序员,十分优秀!