- r - 以节省内存的方式增长 data.frame
- ruby-on-rails - ruby/ruby on rails 内存泄漏检测
- android - 无法解析导入android.support.v7.app
- UNIX 域套接字与共享内存(映射文件)
我正在尝试从在 iOS11 上的 Safari 上工作的麦克风获取音频捕获 after support was recently added
但是,永远不会调用 onaudioprocess
回调。这是一个示例页面:
<html>
<body>
<button onclick="doIt()">DoIt</button>
<ul id="logMessages">
</ul>
<script>
function debug(msg) {
if (typeof msg !== 'undefined') {
var logList = document.getElementById('logMessages');
var newLogItem = document.createElement('li');
if (typeof msg === 'function') {
msg = Function.prototype.toString(msg);
} else if (typeof msg !== 'string') {
msg = JSON.stringify(msg);
}
var newLogText = document.createTextNode(msg);
newLogItem.appendChild(newLogText);
logList.appendChild(newLogItem);
}
}
function doIt() {
var handleSuccess = function (stream) {
var context = new AudioContext();
var input = context.createMediaStreamSource(stream)
var processor = context.createScriptProcessor(1024, 1, 1);
input.connect(processor);
processor.connect(context.destination);
processor.onaudioprocess = function (e) {
// Do something with the data, i.e Convert this to WAV
debug(e.inputBuffer);
};
};
navigator.mediaDevices.getUserMedia({audio: true, video: false})
.then(handleSuccess);
}
</script>
</body>
</html>
在大多数平台上,当调用 onaudioprocess
回调时,您会看到项目被添加到消息列表中。但是,在 iOS 上,永远不会调用此回调。
我还应该做些什么来尝试使用 Safari 在 iOS 11 上调用它吗?
最佳答案
有两个问题。最主要的是 iOS 11 上的 Safari 似乎会自动暂停不是响应点击而创建的新 AudioContext
。您可以 resume()
它们,但只能响应点击。
(更新:Chrome 移动版也这样做,Chrome 桌面版将从 70 版/2018 年 12 月开始具有相同的限制。)
因此,您必须在获取 MediaStream
之前创建它,或者让用户稍后再次点击。
您的代码的另一个问题是 AudioContext
在 Safari 中以 webkitAudioContext
为前缀。
这是一个工作版本:
<html>
<body>
<button onclick="beginAudioCapture()">Begin Audio Capture</button>
<script>
function beginAudioCapture() {
var AudioContext = window.AudioContext || window.webkitAudioContext;
var context = new AudioContext();
var processor = context.createScriptProcessor(1024, 1, 1);
processor.connect(context.destination);
var handleSuccess = function (stream) {
var input = context.createMediaStreamSource(stream);
input.connect(processor);
var recievedAudio = false;
processor.onaudioprocess = function (e) {
// This will be called multiple times per second.
// The audio data will be in e.inputBuffer
if (!recievedAudio) {
recievedAudio = true;
console.log('got audio', e);
}
};
};
navigator.mediaDevices.getUserMedia({audio: true, video: false})
.then(handleSuccess);
}
</script>
</body>
</html>
(您可以更快地设置 onaudioprocess
回调,但随后您会得到空缓冲区,直到用户批准麦克风访问。)
哦,还有一个需要注意的 iOS 错误:iPod touch 上的 Safari(从 iOS 12.1.1 开始)报告说它没有麦克风(它有)。因此,如果您在那里请求音频,getUserMedia 将错误地拒绝并返回 Error: Invalid constraint
。
仅供引用:我维护 microphone-stream npm 上的包为您执行此操作并在 Node.js 样式的 ReadableStream 中提供音频。如果您或其他任何人更愿意在原始代码上使用它,它包括此修复程序。
关于ios - ios11 上未调用 onaudioprocess,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46363048/
我正在围绕 scriptProcessorNode 振荡器构建类。我已将 onaudioprocess 事件处理程序包装在函数 Gendy.prototype.process 中。我可以从此包装函数中
我正在尝试从在 iOS11 上的 Safari 上工作的麦克风获取音频捕获 after support was recently added 但是,永远不会调用 onaudioprocess 回调。这
我想在通话时获取音频缓冲区,我做了这个方法来检测它,但是我收到消息,这个方法 onaudioprocess 已被弃用并且没有被触发,有没有其他替代方法的例子。 audioContext = new A
我正在构建一个简单的应用程序,我试图在其中获取缓冲区,但似乎没有触发以下代码中的 onaudio 进程:( PasteBin ) var audio_context; var recorder; w
我正在使用 ScriptProcessorNode 的 onaudioprocess 回调来处理麦克风输入。通过将 MediaStreamSourceNode 连接到 ScriptProcessorN
我之前曾在 Web Audio API 中成功使用 JavaScriptAudioNode 在 Chrome 和 Safari 6.0 中合成和混合音频。但是,最新版本的 Safari 似乎不再有效,
我正在使用 Web Audio API 的 ScriptProcessor 及其 onaudioprocess 事件来进行重复回调,例如节拍器。 我尝试在同一个应用程序中使用 requestAnima
我在 Chrome 39.0.2171.71(64 位)的 WebAudio/WebMIDI 应用程序中工作。我安装了 jazz-soft webmidi 插件。 我根本无法启动 onaudiopro
我是一名优秀的程序员,十分优秀!