gpt4 book ai didi

c# - 尝试了解有关 C# 中 NAudio 的缓冲区

转载 作者:行者123 更新时间:2023-11-30 15:21:37 25 4
gpt4 key购买 nike

我是一名化学专业的学生,​​试图在 C# 中使用 NAudio 从我的计算机的麦克风收集数据(计划稍后切换到音频端口,以防这与如何回答有关)。我了解什么是源流,以及 NAudio 如何使用事件处理程序来了解是否开始从所述流中读取信息,但在处理从流中读取的数据时,我感到很困惑。据我了解,缓冲区数组是从源流(使用 AddSamples 命令)以字节或 WAV 格式填充的。现在,我要做的就是填充缓冲区并将其内容写入控制台或进行简单的可视化。我似乎无法从缓冲区中获取我的值,并且我尝试将其视为 WAV 和字节数组。有人可以帮助我从头开始了解 NAudio 的工作原理,以及如何从缓冲区中提取数据并将其存储为更有用的格式(即 double )吗?这是我目前处理 NAudio 及其附带的所有代码的代码:

public NAudio.Wave.BufferedWaveProvider waveBuffer = null; // clears buffer 

NAudio.Wave.WaveIn sourceStream = null; // clears source stream

public void startRecording(int samplingFrequency, int deviceNumber, string fileName)
{
sourceStream = new NAudio.Wave.WaveIn(); // initializes incoming audio stream
sourceStream.DeviceNumber = deviceNumber; // specifies microphone device number
sourceStream.WaveFormat = new NAudio.Wave.WaveFormat(samplingFrequency, NAudio.Wave.WaveIn.GetCapabilities(deviceNumber).Channels); // specifies sampling frequency, channels

waveBuffer = new NAudio.Wave.BufferedWaveProvider(sourceStream.WaveFormat); // initializes buffer

sourceStream.DataAvailable += new EventHandler<NAudio.Wave.WaveInEventArgs>(sourceStream_DataAvailable); // event handler for when incoming audio is available

sourceStream.StartRecording();

PauseForMilliSeconds(500); // delay before recording is stopped

sourceStream.StopRecording(); // terminates recording
sourceStream.Dispose();
sourceStream = null;
}

void sourceStream_DataAvailable(object sender, NAudio.Wave.WaveInEventArgs e)
{
waveBuffer.AddSamples(e.Buffer, 0, e.BytesRecorded); // populate buffer with audio stream
waveBuffer.DiscardOnBufferOverflow = true;
}

最佳答案

免责声明:我对 NAudio 没有太多经验。


这在某种程度上取决于您想对音频数据做什么。

如果您只是想存储或转储数据(无论是文件目标还是只是控制台),那么您不需要 BufferedWaveProvider。直接在事件处理程序 sourceStream_DataAvailable() 中做任何您想做的事。但请记住,您接收的数据是原始字节,即实际构成录制音频的单个帧(又名样本)的字节数取决于波形格式:

var bytesPerFrame = sourceStream.WaveFormat.BitsPerSample / 8
* sourceStream.WaveFormat.Channels

如果您想分析数据(例如,使用 FFT 进行傅里叶分析),那么我建议使用 NAudio 的 ISampleProvider。该接口(interface)隐藏了所有原始字节、位深度的内容,让您可以轻松地逐帧访问数据。

首先从您的 BufferedWaveProvider 创建一个 ISampleProvider,如下所示:

var samples = waveBuffer.ToSampleProvider();

然后您可以使用 Read() 方法访问示例帧。确保使用 BufferedWaveProvider 上的 BufferedBytes 属性检查数据是否实际可用:

while (true)
{
var bufferedFrames = waveBuffer.BufferedBytes / bytesPerFrame;

if (bufferedFrames < 1)
continue;

var frames = new float[bufferedFrames];
samples.Read(frames, 0, bufferedFrames);

DoSomethingWith(frames);
}

因为你想同时做两件事——同时记录和分析音频数据——你应该为此使用两个单独的线程。

有一个small GitHub project that uses NAudio用于对录制的音频数据进行 DTMF 分析。您可能想看看如何将它们组合在一起的一些想法。文件DtmfDetector\Program.cs有一个很好的起点。


要快速开始应该给你“更连贯”的输出,请尝试以下操作:

将这个字段添加到你的类中:

ISampleProvider samples;

将此行添加到您的方法startRecording():

samples = waveBuffer.ToSampleProvider();

像这样扩展 sourceStream_DataAvailable():

void sourceStream_DataAvailable(object sender, NAudio.Wave.WaveInEventArgs e)
{
waveBuffer.AddSamples(e.Buffer, 0, e.BytesRecorded);
waveBuffer.DiscardOnBufferOverflow = true;

var bytesPerFrame = sourceStream.WaveFormat.BitsPerSample / 8
* sourceStream.WaveFormat.Channels
var bufferedFrames = waveBuffer.BufferedBytes / bytesPerFrame;

var frames = new float[bufferedFrames];
samples.Read(frames, 0, bufferedFrames);

foreach (var frame in frames)
Debug.WriteLine(frame);
}

关于c# - 尝试了解有关 C# 中 NAudio 的缓冲区,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37148997/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com