作者热门文章
- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
我从 getUserMeda 获取音频流,然后将其转换为 blob 或缓冲区,并在音频传输时将其发送到服务器 我正在使用 socket.io 将其发送到服务器 如何将音频媒体流转换为缓冲区?
下面是我写的代码
navigator.getUserMedia({audio: true, video: false}, function(stream) {
webcamstream = stream;
var media = stream.getAudioTracks();
socket.emit("sendaudio", media);
},
function(e){
console.log(e);
}
});
当流来自 getusermedia 函数时,如何将流转换为缓冲区并将其发送到 node.js 服务器?
最佳答案
根据@MuazKhan 的评论,使用 MediaRecorder(在 Firefox 中,最终将在 Chrome 中)或 RecordRTC/etc 将数据捕获到 blob 中。然后您可以通过以下几种方法之一将其导出到服务器进行分发:WebSockets、WebRTC DataChannels 等。请注意,这些方法不能保证实时传输数据,而且 MediaRecorder 还没有比特率控制。如果传输延迟,数据可能会在本地累积。
如果实时(重新)传输很重要,请强烈考虑使用 PeerConnection 代替服务器(根据@Robert 的评论),然后将其转换为流。 (如何完成取决于服务器,但你应该对 Opus 数据进行编码以重新打包或解码并重新编码。)虽然重新编码通常不好,但在这种情况下你最好通过 NetEq 解码( webrtc.org 堆栈的 jitter buffer 和 PacketLossConcealment 代码)并获得干净的实时音频流以重新编码以进行流式传输,处理丢失和抖动。
关于javascript - 如何将 getUsermedia 音频流转换为 blob 或缓冲区?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30547322/
我是一名优秀的程序员,十分优秀!