- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
当使用库 Librosa 在 16 位 44.1 khz 音频文件上执行 STFT,然后执行逆 STFT (iSTFT) 时:
import librosa
y, sr = librosa.load('test.wav', mono=False)
y1 = y[0,]
S = librosa.core.stft(y1)
z1 = librosa.core.istft(S, dtype=y1.dtype)
librosa.output.write_wav('test2.wav', z1, sr)
输出只是一个 22 khz 的音频文件。为什么? librosa 的采样率变化在哪里?
最佳答案
librosa.load()
函数启用目标采样,其中您导入的音频文件可以重新采样到关键字参数 sr
指定的目标采样率.
如果您想使用原始采样率,则必须将目标采样率显式设置为无:sr=None
。默认情况下,sr=22050
,这就是您的输出为 ~22khz 的原因。
举个例子:
默认设置 - 子采样到默认 22,050 Hz
In[51]: filename = librosa.util.example_audio_file()
In[52]: y1, sr1 = librosa.load(filename)
In[53]: print sr1
22050
显式设置 sr=None
确保保留原始采样
In[54]: y2, sr2 = librosa.load(filename,sr=None)
In[55]: print sr2
44100
子采样到指定速率,16,000 Hz
In[56]: y3, sr3 = librosa.load(filename,sr=16000)
In[57]: print sr3
16000
关于python - Librosa 的采样率问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38188359/
我正在尝试使用 librosa 通过从持续时间为 60 秒的某个 .wav 文件中剪切 1 秒的片段来生成一些数据。 这部分有效,我创建了所有文件,我也可以通过任何播放器收听它们,但是如果我尝试使用
有一个代码可以为单声道音频生成梅尔谱图。 import librosa, librosa.display import matplotlib.pyplot as plt import numpy as
有没有可以让我选择传递给MFCC算法的频带的API? 假设我有2个不同的麦克风,每个麦克风都有不同的频率范围,一个为0〜12000Hz,另一个为0〜20000Hz 显然,即使在录制以节省声源时,第一和
我是信号处理的新手,并且正在使用librosa库。 我想知道当我使用librosa.load函数读取音频(.wav)文件时返回的信息是什么。 是pa中的瞬时声压吗?还是只是声音信号的瞬时幅度没有单位?
所以我试图让 librosa 使用麦克风输入,而不仅仅是 wav 文件,并且遇到了一些问题。最初我使用 pyaudio 库连接到麦克风,但我在翻译这些数据以供 librosa 使用时遇到了问题。关于如
Librosa Python 3.5在 8000Hhz 音频样本上出现错误: extract feature error. Filter pass-band lies beyond Nyquist 之
所以我在 IPython 中使用 librosa 库,到目前为止没有遇到任何问题,直到昨天未能导入它。特别是当我尝试导入 librosa 时,它会给我以下错误消息。 import librosa Im
当使用库 Librosa 在 16 位 44.1 khz 音频文件上执行 STFT,然后执行逆 STFT (iSTFT) 时: import librosa y, sr = librosa.load(
我正在尝试绘制 16000Hz 16 位 .wav 语音音频的波形图和频谱图。我已成功获得以下地 block : 但是,频谱图上的时间值不正确。我确定我的采样率在整个程序中是一致的 (16000Hz)
我正在使用 native beat_track来自 Librosa 的函数: from librosa.beat import beat_track tempo, beat_frames = beat
除非我使用 librosa 之一'.ogg' 格式的 native '示例'音频文件,我无法加载音频。 每个 github 问题和 SO 答案都说我需要安装 ffmpeg。我找到了一个名为 ffmpe
我有点难以理解 MFCC。 从我读到的 mel 滤波器组应该是一系列三角形,它们变得更宽并且它们的峰值在同一个地方。像这样... 但是,当我使用 librosa 计算 mel 滤波器组时,我得到...
我目前正在尝试使用 librosa 来执行 stfft,这样参数类似于来自不同框架 (Kaldi) 的 stfft 进程。 音频文件是 fash-b-an251 Kaldi 使用 16 KHz 的采样
我的python版本是3.7.4,而Librosa版本是0.8.0下面是我的代码: import librosa import librosa.display import matplotlib.py
我正在尝试隔离音频流的前景,然后使用 librosa 将其保存为独立的音频流。 从这个看似开始relevant example . 我有完整的前景和背景数据,就像 S_full 中的例子一样。 , S
在 AudioSegment来自 from pydub import AudioSegment ,有一个函数set_sample_width .从文档: Creates an equivalent v
我将一些音频文件转换为频谱图并使用以下代码将它们保存到文件中: import os from matplotlib import pyplot as plt import librosa import
所以我想将频谱图图像提供给卷积神经网络,以尝试对各种声音进行分类。我希望每个图像都是 384x128 像素。但是,当我实际保存图像时,它只有 297x98。这是我的代码: def save_spect
我想提取以 8000 Hz 采样、帧大小为 20 毫秒和 10 毫秒重叠的音频文件的 mfcc 特征。 librosa.feature.mfcc() 函数的参数必须是什么。下面编写的代码是否指定了具有
我想提取以 8000 Hz 采样、帧大小为 20 毫秒和 10 毫秒重叠的音频文件的 mfcc 特征。 librosa.feature.mfcc() 函数的参数必须是什么。下面编写的代码是否指定了具有
我是一名优秀的程序员,十分优秀!