- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
假设我想混合这 2 个音轨:
在 Audacity 中,我可以使用“混合和渲染”选项将它们混合在一起,我会得到这个:
但是,当我尝试编写自己的代码进行混合时,我得到了这个:
这基本上就是我混合样本的方式:
private function mixSamples(sample1:UInt, sample2:UInt):UInt
{
return (sample1 + sample2) & 0xFF;
}
(语法是 Haxe,但如果您不知道它应该很容易理解。)
这些是 8 位示例音频文件,我希望产品也是 8 位的,因此 & 0xFF
。
我确实明白,通过简单地添加样本,我应该期望剪裁。我的问题是在 Audacity 中混音不会导致削波(至少不会达到我的代码造成的程度),并且通过查看第二条(较长)轨道的“尾部”,它似乎不会降低振幅.听起来也没有更柔和。
基本上,我的问题是:Audacity 做了哪些我没有做的事情?我想混合音轨,听起来就像它们在彼此之上播放一样,但我(显然)不想要这种可怕的剪辑。
编辑:
如果我在添加之前对值进行签名,然后按照 Radiodef 的建议取消对总和值的签名,则会得到以下结果:
如您所见,它比以前好多了,但与 Audacity 生成的结果相比,它仍然非常扭曲和嘈杂。所以我的问题仍然存在,Audacity 必须做一些不同的事情。
编辑 2:
我将第一首轨道与我的代码和 Audacity 混合在一起,并比较了失真发生的点。这是 Audacity 的结果:
这是我的结果:
最佳答案
我认为正在发生的事情是您将它们作为无符号求和。典型的声波既有正波也有负波,这就是为什么它们以它们的方式加在一起(有些部分抵消)。如果你有一些 8 位样本是 -96,另一个是 96,你对它们求和你会得到 0。如果你有的是无符号音频,你将取而代之的是样本 32 和 224 求和 = 256(偏移和溢出) .
您需要做的是在求和之前对它们签名。要对 8 位样本进行签名,请将它们转换为带符号的 int 类型,然后从所有样本中减去 128。我假设您拥有的是 WAV 文件,您需要在求和后再次取消签名。
Audacity 可能会进行浮点处理。我听说过一些关于 float 的真正可疑的说法,比如它具有“无限动态范围”和类似的垃圾,但它不像整数那样以同样确定和明显的方式剪辑。 float 具有与整数相同的有限值范围,但最大值和最小值相距更远。 (这是最简单的表达方式。) float 允许音频中的振幅变化大得多,但要注意的是整体信噪比低于整数。
对于奇怪的失真,我最好的猜测是它来自您使用 & 0xFF
做的掩码。如果你想真正剪辑而不是溢出,你需要自己做。
for (int i = 0; i < samplesLength; i++) {
if (samples[i] > 127) {
samples[i] = 127;
} else if (samples[i] < -128) {
samples[i] = -128;
}
}
否则假设您有两个 125 的样本,求和得到 250 (11111010)。然后你取消签名(加 128)并得到 378(101111010)。 & 会得到 1111010,即 122。其他数字可能会得到实际上为负或接近 0 的结果。
如果您想在 8 位以外的其他位置裁剪,位深度 n 的满刻度将为 positive (2 ^ (n - 1)) - 1
和 negative 2 ^ (n - 1)
例如 32767 和 -32768 表示 16 位。
除了裁剪之外,您还可以做的另一件事是搜索裁剪和规范化。像这样的东西:
double[] normalize(double[] samples, int length, int destBits) {
double fsNeg = -pow(2, destBits - 1);
double fsPos = -fsNeg - 1;
double peak = 0;
double norm = 1;
for (int i = 0; i < length; i++) {
// find highest clip if there is one
if (samples[i] < fsNeg || samples[i] > fsPos) {
norm = abs(samples[i]);
if (norm > peak) {
norm = peak;
}
}
}
if (peak != 0) {
// ratio to reduce to where there is not a clip
norm = -fsNeg / peak;
for (int i = 0; i < length; i++) {
samples[i] *= norm;
}
}
return samples;
}
关于audio - Audacity 如何混合音频样本?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/20110385/
我有一个小型WordPress网站。我做了很多音频工作,并且试图在WordPress的博客条目中发布HTML5音频剪辑。由于某种原因,它不起作用。它可能与我在WordPress网站上使用的样式有关,但
我在让 html5 标签与 Web Audio API .createMediaElementSource() 方法配合使用时遇到问题。请参阅下面的 jsFiddle/代码。任何想法这里出了什么问题将
我尝试安装ffmpeg $ brew install ffmpeg 并运行 ffmpeg $ ffmpeg -i audio.m4a -ar 8000 -ab 12.2k audio.amr 我收到以
我已使用Web Audio API中的getByteFrequencyData方法使用了来自Analyzer节点的FFT数据来创建频谱可视化器,如下所示: 在这种情况下,我有256个数据箱。这个数字到
Google VR刚刚为wwise制作了一个VR插件: https://developers.google.com/vr/audio/wwise-getting-started https://git
如何将新记录追加到现有记录中的选定位置或特定位置? 例如,有一个5秒的录制,我想再次录制,但是将此录制追加到先前录制的特定位置,说出来:在3秒钟的录制长度之后追加此录制。 最佳答案 您可以使用getC
我们基于 Raspberry Pi 和 omxplayer 构建简单的网络控制视频播放器。我们遇到的问题是任何使用 ffmpeg 转码的文件都有音频不同步。在 iPad 上制作并直接上传到 Pi 的视
我正在尝试了解Web Audio API的引入对基于Web的游戏的开发意味着什么。 Flash游戏当然可以执行一些相当高级的音频处理,对于简单的游戏,音频元素也许就足够了。但是Web Audio AP
我已经在如何用简单的音频引擎循环播放声音效果方面进行了广泛的搜索,但是在cocos2d论坛上除了hello with looping sfx之外,它并没有取得太大进展,因为它存在多个问题。如何在Sim
我的任务是打开一个扩展名为 mka 的现有音频文件(Matroska 容器)并提取原始音频数据。 This示例仅显示了从 mp2 文件中提取原始数据的示例。我不知道如何使用 mka 容器执行此操作。我
我是Lync 2013 SDK的新手(现在已经使用了几周),并且能够弄清除此以外的大部分东西…… 当我加入 session 时(使用ConversationManager.JoinConference
我好奇。如何实现有史以来最简单的音频引擎?我有一些类似使用默认音频设备的音频数据流的想法。玩了很多 RtAudio,我认为如果可以放弃一些功能,这是可能的。有人知道从哪里开始吗? 最佳答案 我会这样做
我一直在玩网络音频API。 我正在使用getByteFrequencyData来显示频带的分贝数据,但是我想更改显示频带的整个范围,因为现在重要的音频都被压缩为一对频带。 有关如何执行此操作的任何想法
我想在音频 session 以NAudio开始和结束时接收回调。以下代码正在运行: private void SetupMediaSessionCallbacks() {
我可以用trackPosition,offset以某种方式记录并输出到WAV。当在浏览器中播放时,它工作正常,我只想输出到WAV文件。 for (var i = 0; i 0) {
在哪种情况下,我们可以不将Google Resonance Audio SDK与耳机配合使用,而应将其与真实的扬声器配合使用(例如,安装在360°的音圈设置中)? 还是所有算法都不适用于真实的扬声器输
AudioPannerNode是一个处理节点,用于在三维空间中定位/空间化传入的音频流。有没有一种方法可以将其用于常规LR平移,请记住它使用3D笛卡尔坐标系与侦听器结合使用,该侦听器的位置和方向与平移
我有一个带有两个源的音频对象,分别为M4A和OGG格式。 代码如下: 然后,我可以调用document.getElementById('audio1')。play()并开始播放。 它适用于所有
我正在尝试构建一个允许将时间/节奏(可能是音高)输入到 Web 音频振荡器节点的界面。实际上创建了一个“步进音序器”。 为 Web Audio API 振荡器节点触发预定 NoteOn 的最佳方式是什
是否可以使用 Core Audio 以亚毫秒级延迟播放声音? 我尝试过使用具有不同大小和缓冲区数量的 AudioQueues,也尝试过使用 AudioUnits,但我一直无法将延迟降低到 30 毫秒以
我是一名优秀的程序员,十分优秀!