- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我有兴趣使用 JavaScript WebAudioAPI
来检测歌曲节拍,然后将它们呈现在 Canvas 中。
我可以处理 Canvas 部分,但我不是一个大音频专家,而且真的不明白如何用 JavaScript 制作节拍检测器。
我试过关注 this article但就我的生活而言,无法将每个功能之间的点连接起来以制作功能程序。
我知道我应该给你看一些代码,但老实说我没有,我所有的尝试都惨败,相关代码在前面提到的文章中。
无论如何,我非常感谢一些指导,或者更好的演示如何使用 WebAudioAPI
实际检测歌曲节拍。
谢谢!
最佳答案
了解the referenced article by Joe Sullivan的主要内容是尽管它给出了大量的源代码,但它离最终完整的代码还很远。要获得可行的解决方案,您仍然需要一些编码和调试技能。
此答案的大部分代码来自引用文章,原始许可适用于适当的地方。
下面是使用上述文章中描述的功能的简单示例实现,您仍然需要找出功能解决方案的正确阈值。
代码由为答案编写的准备代码组成:
然后,如文章所述:
对于阈值,我使用了最大值和最小值之间范围的 0.98 的任意值;在分组时,我添加了一些额外的检查和任意舍入以避免可能的无限循环并使其成为易于调试的示例。
请注意,为了保持示例实现的简洁,注释很少,因为:
audio_file.onchange = function() {
var file = this.files[0];
var reader = new FileReader();
var context = new(window.AudioContext || window.webkitAudioContext)();
reader.onload = function() {
context.decodeAudioData(reader.result, function(buffer) {
prepare(buffer);
});
};
reader.readAsArrayBuffer(file);
};
function prepare(buffer) {
var offlineContext = new OfflineAudioContext(1, buffer.length, buffer.sampleRate);
var source = offlineContext.createBufferSource();
source.buffer = buffer;
var filter = offlineContext.createBiquadFilter();
filter.type = "lowpass";
source.connect(filter);
filter.connect(offlineContext.destination);
source.start(0);
offlineContext.startRendering();
offlineContext.oncomplete = function(e) {
process(e);
};
}
function process(e) {
var filteredBuffer = e.renderedBuffer;
//If you want to analyze both channels, use the other channel later
var data = filteredBuffer.getChannelData(0);
var max = arrayMax(data);
var min = arrayMin(data);
var threshold = min + (max - min) * 0.98;
var peaks = getPeaksAtThreshold(data, threshold);
var intervalCounts = countIntervalsBetweenNearbyPeaks(peaks);
var tempoCounts = groupNeighborsByTempo(intervalCounts);
tempoCounts.sort(function(a, b) {
return b.count - a.count;
});
if (tempoCounts.length) {
output.innerHTML = tempoCounts[0].tempo;
}
}
// http://tech.beatport.com/2014/web-audio/beat-detection-using-web-audio/
function getPeaksAtThreshold(data, threshold) {
var peaksArray = [];
var length = data.length;
for (var i = 0; i < length;) {
if (data[i] > threshold) {
peaksArray.push(i);
// Skip forward ~ 1/4s to get past this peak.
i += 10000;
}
i++;
}
return peaksArray;
}
function countIntervalsBetweenNearbyPeaks(peaks) {
var intervalCounts = [];
peaks.forEach(function(peak, index) {
for (var i = 0; i < 10; i++) {
var interval = peaks[index + i] - peak;
var foundInterval = intervalCounts.some(function(intervalCount) {
if (intervalCount.interval === interval) return intervalCount.count++;
});
//Additional checks to avoid infinite loops in later processing
if (!isNaN(interval) && interval !== 0 && !foundInterval) {
intervalCounts.push({
interval: interval,
count: 1
});
}
}
});
return intervalCounts;
}
function groupNeighborsByTempo(intervalCounts) {
var tempoCounts = [];
intervalCounts.forEach(function(intervalCount) {
//Convert an interval to tempo
var theoreticalTempo = 60 / (intervalCount.interval / 44100);
theoreticalTempo = Math.round(theoreticalTempo);
if (theoreticalTempo === 0) {
return;
}
// Adjust the tempo to fit within the 90-180 BPM range
while (theoreticalTempo < 90) theoreticalTempo *= 2;
while (theoreticalTempo > 180) theoreticalTempo /= 2;
var foundTempo = tempoCounts.some(function(tempoCount) {
if (tempoCount.tempo === theoreticalTempo) return tempoCount.count += intervalCount.count;
});
if (!foundTempo) {
tempoCounts.push({
tempo: theoreticalTempo,
count: intervalCount.count
});
}
});
return tempoCounts;
}
// http://stackoverflow.com/questions/1669190/javascript-min-max-array-values
function arrayMin(arr) {
var len = arr.length,
min = Infinity;
while (len--) {
if (arr[len] < min) {
min = arr[len];
}
}
return min;
}
function arrayMax(arr) {
var len = arr.length,
max = -Infinity;
while (len--) {
if (arr[len] > max) {
max = arr[len];
}
}
return max;
}
<input id="audio_file" type="file" accept="audio/*"></input>
<audio id="audio_player"></audio>
<p>
Most likely tempo: <span id="output"></span>
</p>
关于javascript - 如何使用 JS WebAudioAPI 进行节拍检测?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30110701/
我正在尝试使用 Web Audio Api 创建一个波表合成器。我想要实现的是从一种波形线性切换到另一种波形(如 Massive 或 Serum)的可能性。 例如:从正弦波开始,我旋转一个旋钮,逐渐将
我正在使用 MediaElementAudioSourceNode 播放音频文件 ( refer to this question ),它按预期工作,但我对如何在断开连接后处理节点有疑问。 目前我有这
我有兴趣使用 JavaScript WebAudioAPI 来检测歌曲节拍,然后将它们呈现在 Canvas 中。 我可以处理 Canvas 部分,但我不是一个大音频专家,而且真的不明白如何用 Java
我使用 WebAudioAPI 和 Dancer.js 可视化了一个音频文件。一切正常,但可视化效果看起来非常不同。谁能帮我找出为什么它看起来如此不同? The Web-Audio-API code
我有一个 mp3 音频流播放器,在每个桌面浏览器中都运行良好,使用 MediaSourceExtensions 并为那些不支持 MSE 的浏览器回退到 WebAudioAPI。 iOS Safari
对于一个项目,我正在通过 WebSockets 从 Java 服务器检索实时音频流。在服务器上,我正在以 8 位有符号字节值的形式处理 16Bit/8000hz/mono 的样本(两个字节组成一个样本
我是一名优秀的程序员,十分优秀!