- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我搜索并阅读了几篇通过 Google 搜索找到的文章,但找不到明确的答案。
除了启动之外,window.AudioContext 和 navigator.getUserMedia 之间还有什么区别?
此外,我已经知道 getUserMedia 也可用于获取摄像头流,但这更多地属于音频范围。浏览器支持信息也会非常有帮助。
最佳答案
getUserMedia() 从麦克风、摄像头或其他位置获取输入数据(屏幕截图(很快将包括音频捕获)等)。它创建一个 MediaStream(带有一个或多个 MediaStreamTrack)。您还可以从媒体元素 (element.captureStream()/etc) 或 Canvas (canvas.captureStream(...) - 显然仅限视频)创建 MediaStreams。请注意,captureStream() 正在被纳入 MediaStreams 的规范中。
AudioContext 是 WebAudio 图的分组结构。它不是源,甚至不是处理节点,它是 WebAudio 代码工作的上下文(图形)。您可以将 MediaStream(其音轨)馈送到 WebAudio AudioContext,或使用其他记录或合成输入/生成器。
非常不同的构造。
关于javascript - window.AudioContext 和 navigator.getUserMedia 的区别,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30996782/
我的代码在 Chrome 中运行良好,但现在我认为由于 Chrome 更新,它停止运行了。 var audioContext = new(window.audioContext || window.w
我想在我的游戏中使用麦克风(点击,游戏有音乐和音效,我使用 HTML5 音频元素),如果我添加(仅!)这一行: var audioCtx = new AudioContext (); 并在 Chrom
我正在开发一个 JavaScript 库 ( https://github.com/yvesgurcan/web-midi-player ) 以在 Web 应用程序中启用 MIDI 播放。该库依赖于
我正在开发一个 JavaScript 库 ( https://github.com/yvesgurcan/web-midi-player ) 以在 Web 应用程序中启用 MIDI 播放。该库依赖于
作为这篇文章的后续:How to rapidly play multiple copies of a soundfile in javascript我创建了一个小的演示页面来说明我的问题的核心。 我的
我以前使用过 javascript Audio(),但现在我需要在音频中添加一些混响效果,我正在使用使用 AudioContext api 的 reverb.js。我有可用的开始属性,但没有暂停属性?
我遵循一种模式使用 Webaudio 将声音附加到对象。它运行良好,但是,如果我在一个页面上生成多个项目并附加此脚本,我会收到一个 console.log,表明我已经超过了每页可用的 audioCon
使用 WebAudio API 播放直播流的正确方法是什么。 我正在尝试使用以下代码,但是我看到的只是正在下载 MP3,但没有播放;可能 MediaElementSource 需要一个文件,而不是连续
受此启发SO answer ,我有这段代码,它可以工作,但它会弹出并且听起来不太流畅。 $('.btn').each(initDraggable); function initDraggable()
我有两个一秒音频源,如下所示: var context = system.AudioContext(); var source = context.createBufferSource(); var
我知道你不能多次演奏振荡器,所以我编写了一个函数,每次都会创建一个新的振荡器: function playFrequency(f, t0, t1){ console.log(f, t0, t1
我试图在三星 Galaxy SII 4G 上的最新版本的 Chrome (34.0.1847.114) 中使用 AudioContext(),但由于某种原因 AudioContext() 不存在,we
我已经关注了这个 tutorial并提出该代码: context = new AudioContext(); play(frequency) { const o = this.context.
如果我现在需要在 HTML5 中使用音频 API,我应该使用哪一个?我看到两个可用的 API:Audio API 和 Web Audio API。 基于 this documentation from
我正在构建一个音乐播放器,我想根据当前播放的轨道添加脉动效果。 这里是我想要的一些例子: http://www.htmlfivewow.com/demos/hal/index.html http://
我正在分析一个音频文件,以便使用 channelData 来驱动我的 webapp 的另一部分(基本上是基于音频文件绘制图形)。播放的回调函数如下所示: successCallback(mediaSt
所以,我刚刚发现你可以 record sound using javascript 。太棒了! 我立即创建了一个新项目来自己做一些事情。然而,当我打开示例脚本的源代码时,我发现根本没有任何解释性注释。
我正在寻找一种使用浏览器中的 JavaScript 生成和播放 WAVE 表单的方法。该方法解释如下:http://js.do/blog/sound-waves-with-javascript/ ,非
我正在尝试使用 XMLHttpRequests 和 AudioContext 加载音频,我的代码如下所示: class AudioExample audioContext: null
var audioContext = new window.AudioContext chrome.runtime.onMessage.addListener( function(imageUrl
我是一名优秀的程序员,十分优秀!