- iOS/Objective-C 元类和类别
- objective-c - -1001 错误,当 NSURLSession 通过 httpproxy 和/etc/hosts
- java - 使用网络类获取 url 地址
- ios - 推送通知中不播放声音
因此,我浏览了 Java 的声音教程,但发现它并没有那么有用。无论如何,我从麦克风录制声音的教程中了解到的是:
虽然他们确实展示了如何获取目标数据线等等,但他们并没有告诉你如何实际录制声音[或者我可能没有完全理解]。
到目前为止,我的理解是这样的:
Mixer
可以是您的声卡或声音软件驱动程序,可用于处理声音,无论是输入还是输出TargetDataLine
用于将声音输出到计算机。喜欢就存盘端口
是连接麦克风等外部设备的地方最佳答案
使用 AudioSystem.getTargetDataLine(AudioFormat format)你会得到的方法
... a target data line that can be used for recording audio data in the format specified by the AudioFormat object. The returned line will be provided by the default system mixer, or, if not possible, by any other mixer installed in the system that supports a matching TargetDataLine object.
请参阅 Java Sound API - capturing microphone 的已接受答案举个例子。
如果你想更好地控制使用哪条数据线,你可以枚举所有混音器和它们支持的数据线,然后选择你想要的。以下是有关如何执行此操作的更多信息:Java - recording from mixer
获得 TargetDataLine 后,您应该open()
它,然后调用 read()反复从该数据线获取数据。您在每次调用 read()
时用数据填充的 byte[]
可以写入磁盘,例如通过 FileOutputStream .
关于java - 从麦克风捕捉声音,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/13973276/
我想开发一个虚拟麦克风驱动程序。请不要说任何关于 DirectShow 的事情——那不是“方式”。我需要一个适用于任何软件(包括 Skype 和 MSN)的解决方案。而 DirectShow 不符合这
我想使用媒体记录器从我的android应用程序记录音频。我已将音频源设置为麦克风,这使我可以从麦克风进行录制。但是我也很乐意检测是否连接了任何外部麦克风。如果是这样,那么它应该从中录制音频。 例如:如
在此先感谢您的帮助。 我正在开发一个用于研究目的的 Android 应用程序,需要禁用软输入键盘上的语音到文本按钮。这样做的原因是由于我正在开发的应用程序使用麦克风而出现的并发问题。我知道对于一般的应
目前,我正在启动主程序,该程序控制何时启动扬声器和麦克风线程。从那里,我还可以控制设备(USB耳机)上的静音/取消静音等。音频线程位于音频类的单独文件中。 此代码有效。现在,它以预设的特定循环计数捕获
OSX 10.10.3 ,也可以在10.8上重现 系统偏好设置中音频输入的当前状态是: 输入音量设置为0 当我对着麦克风讲话时,我看到条形音箱的没有动画 是否可以从AppleScript中的该状态恢复
我的问题:我目前有一个声音文件,其中包含我录制的特定声音。我希望能够识别该声音何时再次播放超过2秒钟。音量对我来说并不重要,我希望能够识别出何时播放该特定音符。例如,该文件保存了音符A(la)的录音,
这个标题可能看起来很荒谬,但我有问题。我有服务捕获线路,并将文件作为声音文件保存在系统上(该服务不是我开发的,我必须使用它)。 所以我想编写程序来选择声音文件(*.wav、*.mp3 等),然后该声音
我正在尝试编写一个java程序通过UDP发送实时麦克风数据,然后在VLC中接收数据。我基本上使用与 this post 中相同的代码将流打包并发送出去。当我在 VLC 中接收数据时,我什么也没得到。我
我有一个 IP 语音应用程序,我只想通过单击按钮将内置麦克风静音。我该怎么做? 最佳答案 您真的不需要将麦克风静音,对吗?只是停止处理传入的音频。这不是 SDK 需要为您做的事情,而是您需要做的事情。
软呢帽上的 qt5.7 检查了这个audio-to-chart example并发现 QIODevice::writeData 用于读取麦克风输入。由于它有效并且正在绘制来自麦克风的数据,因此该功能显
我想做的是: 在工具栏中添加一个按钮(麦克风图像)。 点击该按钮后,iOS 默认语音听写应该会被调用。 > 查询:我假设我们不能调用默认语音听写但想确认。他们是否有任何解决方法或任何方法来通过单击工具
我正在尝试编写一个 DirectShow 音频捕获过滤器,它可以被 Microsoft Lync 客户端识别为 Microphone 源。这些是我已经采取的步骤: 过滤器派生自CSource;它的输出
在我目前的工作中,我们正在开发一个使用 WebRTC 技术的应用程序。 我们想要测试我们的应用程序与 30 位用户的实时工作情况——一个包含视频、声音和麦克风的电话 session (一切都必须正常)
这可能是一个非常愚蠢的问题,因为我对 AudioKit 和一般的 IOS 音频真的很陌生。我想要实现的是从我的麦克风录制一个剪辑(或只是一个简单的文件记录)。 我不希望我的应用程序将输入(从麦克风)直
我正在尝试使用 AVAudioEngine 获取实时麦克风输入的 float 据。进行一次fft和fft之后的特殊算法。 当我编译代码时,我在控制台上变成了这个输出:0x000000000000000
我需要一种方法来通过 PulseAudio(通过 bash)获取麦克风的当前“响度”。我指的是麦克风拾取的声音音量。 我想复制一个音量计,就像您在 pavucontrol 中看到的那样。 最佳答案 在
如果另一个程序正在使用我计算机的摄像头/麦克风,我正在尝试检查 python (ubuntu)。 我想到了访问相机/麦克风时正在使用哪些系统调用。 我知道正在使用系统调用“access”和“open”
我正在做一个项目,我需要用户能够录制屏幕、音频和麦克风。目前我只能让它识别屏幕和音频。 首先,我捕获屏幕和其中的音频并将其保存到变量中。然后我正在捕获该变量以显示视频组件。 invokeGetDisp
根据官方documentation Android 10 (API level 29) and higher imposes a priority scheme that can switch the
我正在尝试开发一个应用程序来记录双方(麦克风和扬声器)的通话。我已经看到有一个应用程序 vrecorder 为 android 1.6 提供这个 vrecorder。 现在我想为 android 2.
我是一名优秀的程序员,十分优秀!