- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我想进行录音,我从不同的 mediaStream 对象(其中一些,远程)中获取多个音轨。使用 getAudioTracks() 方法并使用 addTrack() 将它们添加到 mediaStream 对象。在将最后一个对象作为 mediaRecorder 的参数传递的那一刻,我意识到它只记录位于位置 [0] 的音轨。这让我明白 mediaRecorder 能够按类型记录轨道,有没有办法将这些轨道合并为一个以使用 mediaRecorder 正确记录它们?如果可能并且如果存在,我将不胜感激任何解释这一点的页面
最佳答案
我为此奋斗了一段时间,花了很长时间才意识到 MediaStream 只记录了我添加的第一首轨道。我的解决方案是获取 Web Audio API涉及。此示例使用两个 UserMedia(例如麦克风和立体声混音)并将它们合并。 UserMedia 由其deviceId
标识。如您使用 await navigator.mediaDevices.enumerateDevices()
时所示.
总之:
AudioContext()
navigator.mediaDevices.getUserMedia()
获取您的媒体const audioContext = new AudioContext();
audioParams_01 = {
deviceId: "default",
}
audioParams_02 = {
deviceId: "7079081697e1bb3596fad96a1410ef3de71d8ccffa419f4a5f75534c73dd16b5",
}
mediaStream_01 = await navigator.mediaDevices.getUserMedia({ audio: audioParams_01 });
mediaStream_02 = await navigator.mediaDevices.getUserMedia({ audio: audioParams_02 });
audioIn_01 = audioContext.createMediaStreamSource(mediaStream_01);
audioIn_02 = audioContext.createMediaStreamSource(mediaStream_02);
dest = audioContext.createMediaStreamDestination();
audioIn_01.connect(dest);
audioIn_02.connect(dest);
const recorder = new MediaRecorder(dest.stream);
chunks = [];
recorder.onstart = async (event) => {
// your code here
}
recorder.ondataavailable = (event) => {
chunks.push(event.data);
}
recorder.onstop = async (event) => {
// your code here
}
关于javascript - 如何为 mediaRecorder API 将多个音轨合并为一个?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55165335/
我正在为 chrome 商店构建一个屏幕录像机插件。我是 将麦克风的音轨添加到媒体流 包含( 屏幕的视频轨道 + 系统音频轨道 )。所以最终流包含 2 个音轨,一个是麦克风,另一个是系统音频。 当我将
当我尝试在我的程序中制作摄像机时,出现此错误: E/MediaRecorder﹕ start failed: -19 代码是 try { final SurfaceView sv = (Sur
const [rec, setRec] = useState({}); const [onRec, setOnRec] = useState(true); useEffect(() => {
这段代码在 Debug模式下工作得很好,但当不是 Debug模式时它总是抛出运行时异常。 mMediaRecorder.stop(); 根据 Java 文档: Stops recordin
当我尝试为我的 MediaRecorder 设置视频大小时,我在启动方法中收到 RuntimeException。 mRecorder.setAudioSource(MediaRecorder.Aud
录制音频是一个很长的操作,所以我启动mRecorder?.start()在服务内的协程中,您可以看到 RecordService.kt。 我调用 suspend fun startRecord(){.
使用媒体记录器,我可以在 azure 上上传和附加视频 blob。但是无法使用以下代码在下载时查找组合视频 - var chunks =[]; var mediaRecorder = new Medi
我在我的应用程序中集成了摄像头。当用户单击捕获按钮时,我隐藏了工具栏,以便摄像头预览屏幕尺寸增加。这会导致应用程序在停止在线录制时崩溃 - mMediaRecorder.stop(); 。 java.
我想在按住按钮时使用 MediaRecorder 开始录制语音消息。尝试在 onLongClickListener 中开始录制时出现 IllegalStateException。 如堆栈跟踪中所述,我
我的应用需要录制最长 8 秒的视频。这已经通过 MediaRecorder.setMaxDuration(long milliseconds) 实现。该应用还需要顶部的进度条和带有剩余时间倒计时的标签
使用时 CanvasCaptureMediaStream和 MediaRecorder,有没有办法在每一帧上获取一个事件? 我需要的和 requestAnimationFrame() 没什么不同,但我
我正在尝试使用媒体录音机来录制音频。我让它工作,以便我能够录制和播放。唯一的问题是我无法记录程序第二次崩溃的情况。我有一个单独的方法来重置 MediaRecorder,但无论我将它放在哪里,它都不起作
我正在使用 MediaRecorder 录制视频,但似乎无论我使用什么设置,帧率都令人震惊(~ 1fps) 这是我的代码: recorder.setAudioSource(MediaRecor
如果我使用 MediaRecorder.AudioSource.MIC 声音会正常录制。如果 MediaRecorder.AudioSource.VOICE_DOWNLINK 声音以慢速播放。我需要它
我查看了其他人遇到的这个问题,但没有找到合适的解决方案。像他们一样,我遵循了相机功能教程:http://developer.android.com/guide/topics/media/camera.
我正在准备一个小型 Android 应用程序,用于捕获用户的照片和录音。用户会用他的相机拍照,然后在查看该照片时添加音频评论。 为了捕捉音频,我正在使用 MediaRecorder [因为 andro
我想录制通话语音,但我收到 MediaRecorder:start failed : -2147483648 这是我的通话记录代码块 public void SesKayitBaslat(Str
我的应用程序录制了一个音频 fragment ,并在录制完成后使用 Retrofit2 将 fragment 发送到服务器。服务器接收到文件,但是文件损坏了,我说的损坏是无法播放。我使用以下 URL(
我尝试实现的方法如下所示。 它保存了文件,音频没问题,但视频全是绿色线条。 我做错了什么? camera.unlock(); mediaRecorder = new MediaRecorder();
我首先尝试创建 SurfaceView: SurfaceView sv = new SurfaceView(context); // Get a surface surfaceHolder = sv.
我是一名优秀的程序员,十分优秀!