- r - 以节省内存的方式增长 data.frame
- ruby-on-rails - ruby/ruby on rails 内存泄漏检测
- android - 无法解析导入android.support.v7.app
- UNIX 域套接字与共享内存(映射文件)
首先,我是 Go 和低级编程领域的新手,所以请多多包涵...:)
所以我要做的是这个;使用 libsndfile 读取 .wav 文件binding去和玩portaudio .
我找不到这方面的任何例子,显然我缺乏关于指针、流和缓冲区的基本知识来实现这一点。到目前为止,这是我对它的看法,我已经尝试阅读文档和我能够找到的几个示例并将它们放在一起。我想我可以打开文件和流,但我不知道如何连接这两者。
package main
import (
"code.google.com/p/portaudio-go/portaudio"
"fmt"
"github.com/mkb218/gosndfile/sndfile"
"math/rand"
)
func main() {
portaudio.Initialize()
defer portaudio.Terminate()
// Open file with sndfile
var i sndfile.Info
file, fileErr := sndfile.Open("hello.wav", sndfile.Read, &i)
fmt.Println("File: ", file, fileErr)
// Open portaudio stream
h, err := portaudio.DefaultHostApi()
stream, err := portaudio.OpenStream(portaudio.HighLatencyParameters(nil, h.DefaultOutputDevice), func(out []int32) {
for i := range out {
out[i] = int32(rand.Uint32())
}
})
defer stream.Close()
fmt.Println("Stream: ", stream, err)
// Play portaudio stream
// ....
framesOut := make([]int32, 32000)
data, err := file.ReadFrames(framesOut)
fmt.Println("Data: ", data, err)
}
如果能为初学者提供一个工作示例和一些提示/链接,我将非常感激。如果您的解决方案涉及除上述两个之外的其他库,那也没关系。
最佳答案
啊哈,音频编程!欢迎来到软实时计算的世界:)
想想数据流:磁盘上 .wav 文件中的一堆位由您的程序读取并发送到操作系统,操作系统将它们交给声卡,在那里它们被转换为模拟信号驱动扬声器产生的声波最终到达您的耳朵。
此流程对时间波动非常敏感。如果它在任何一点被举起,您都会在最终声音中感觉到明显的、有时是刺耳的音损。
通常操作系统/声卡是可靠的并且经过良好测试 - 大多数音频伪像是由我们开发人员编写劣质应用程序代码造成的;)
诸如 PortAudio 之类的库通过处理一些线程优先黑魔法并使调度变得容易来帮助我们解决问题。从本质上讲,它表示“好的,我将开始这个音频流,每隔 X 毫秒,当我需要下一位示例数据时,我将回调您提供的任何函数。”
在本例中,您提供了一个用随机数据填充输出缓冲区的函数。要改为播放 wave 文件,您需要更改此回调函数。
但是!您不想在回调中执行 I/O。从磁盘读取一些字节可能需要 几十 毫秒,而 portaudio 现在 需要样本数据以便及时到达声卡。同样,您希望避免获取锁或任何其他可能会阻塞音频回调的操作。
对于这个例子,在开始流之前加载样本可能是最简单的,并使用类似这样的回调:
isample := 0
callback := func(out []int32) {
for i := 0; i < len(out); i++ {
out[i] = framesOut[(isample + i) % len(framesOut)]
}
isample += len(out)
}
请注意 % len(framesOut)
将导致加载的 32000 个样本一遍又一遍地循环 - PortAudio 将保持流运行直到您告诉它停止。
实际上,您也需要告诉它开始!打开后调用stream.Start()
并在此之后添加 sleep ,否则您的程序可能会在有机会播放任何内容之前退出。
最后,这还假设波形文件中的示例格式与您从 PortAudio 请求的示例格式相同。如果格式不匹配,您仍会听到一些声音,但听起来可能不太好听!无论如何,示例格式是一个完整的“另一个问题”。
当然,预先加载所有示例数据以便您可以在音频回调中引用它并不是一个很好的方法,除非您通过了 hello world 内容。通常,您使用环形缓冲区或类似的东西将样本数据传递给音频回调。
PortAudio 提供了另一个 API(“阻塞”API)来为您执行此操作。对于 portaudio-go,这是通过将 slice 传递给 OpenStream
来调用的。而不是一个函数。使用阻塞 API 时,您通过 (a) 填充您传递到 OpenStream
的 slice 将示例数据泵入流中(b) 调用 stream.Write()
.
这比我预期的要长得多,所以我最好把它留在那里。 HTH.
关于audio - 如何使用 portaudio 和 sndfile 在 Go 中播放 wav 文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28489786/
我有一个小型WordPress网站。我做了很多音频工作,并且试图在WordPress的博客条目中发布HTML5音频剪辑。由于某种原因,它不起作用。它可能与我在WordPress网站上使用的样式有关,但
我在让 html5 标签与 Web Audio API .createMediaElementSource() 方法配合使用时遇到问题。请参阅下面的 jsFiddle/代码。任何想法这里出了什么问题将
我尝试安装ffmpeg $ brew install ffmpeg 并运行 ffmpeg $ ffmpeg -i audio.m4a -ar 8000 -ab 12.2k audio.amr 我收到以
我已使用Web Audio API中的getByteFrequencyData方法使用了来自Analyzer节点的FFT数据来创建频谱可视化器,如下所示: 在这种情况下,我有256个数据箱。这个数字到
Google VR刚刚为wwise制作了一个VR插件: https://developers.google.com/vr/audio/wwise-getting-started https://git
如何将新记录追加到现有记录中的选定位置或特定位置? 例如,有一个5秒的录制,我想再次录制,但是将此录制追加到先前录制的特定位置,说出来:在3秒钟的录制长度之后追加此录制。 最佳答案 您可以使用getC
我们基于 Raspberry Pi 和 omxplayer 构建简单的网络控制视频播放器。我们遇到的问题是任何使用 ffmpeg 转码的文件都有音频不同步。在 iPad 上制作并直接上传到 Pi 的视
我正在尝试了解Web Audio API的引入对基于Web的游戏的开发意味着什么。 Flash游戏当然可以执行一些相当高级的音频处理,对于简单的游戏,音频元素也许就足够了。但是Web Audio AP
我已经在如何用简单的音频引擎循环播放声音效果方面进行了广泛的搜索,但是在cocos2d论坛上除了hello with looping sfx之外,它并没有取得太大进展,因为它存在多个问题。如何在Sim
我的任务是打开一个扩展名为 mka 的现有音频文件(Matroska 容器)并提取原始音频数据。 This示例仅显示了从 mp2 文件中提取原始数据的示例。我不知道如何使用 mka 容器执行此操作。我
我是Lync 2013 SDK的新手(现在已经使用了几周),并且能够弄清除此以外的大部分东西…… 当我加入 session 时(使用ConversationManager.JoinConference
我好奇。如何实现有史以来最简单的音频引擎?我有一些类似使用默认音频设备的音频数据流的想法。玩了很多 RtAudio,我认为如果可以放弃一些功能,这是可能的。有人知道从哪里开始吗? 最佳答案 我会这样做
我一直在玩网络音频API。 我正在使用getByteFrequencyData来显示频带的分贝数据,但是我想更改显示频带的整个范围,因为现在重要的音频都被压缩为一对频带。 有关如何执行此操作的任何想法
我想在音频 session 以NAudio开始和结束时接收回调。以下代码正在运行: private void SetupMediaSessionCallbacks() {
我可以用trackPosition,offset以某种方式记录并输出到WAV。当在浏览器中播放时,它工作正常,我只想输出到WAV文件。 for (var i = 0; i 0) {
在哪种情况下,我们可以不将Google Resonance Audio SDK与耳机配合使用,而应将其与真实的扬声器配合使用(例如,安装在360°的音圈设置中)? 还是所有算法都不适用于真实的扬声器输
AudioPannerNode是一个处理节点,用于在三维空间中定位/空间化传入的音频流。有没有一种方法可以将其用于常规LR平移,请记住它使用3D笛卡尔坐标系与侦听器结合使用,该侦听器的位置和方向与平移
我有一个带有两个源的音频对象,分别为M4A和OGG格式。 代码如下: 然后,我可以调用document.getElementById('audio1')。play()并开始播放。 它适用于所有
我正在尝试构建一个允许将时间/节奏(可能是音高)输入到 Web 音频振荡器节点的界面。实际上创建了一个“步进音序器”。 为 Web Audio API 振荡器节点触发预定 NoteOn 的最佳方式是什
是否可以使用 Core Audio 以亚毫秒级延迟播放声音? 我尝试过使用具有不同大小和缓冲区数量的 AudioQueues,也尝试过使用 AudioUnits,但我一直无法将延迟降低到 30 毫秒以
我是一名优秀的程序员,十分优秀!