- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我运行了一个 AVCaptureVideoDataOutput session ,设置如下,效果很好,并将缓冲区记录到文件中。
我还想录制音频,但缓冲区中似乎没有任何音频,即使我已将麦克风添加为 captureSession 的输入。
我怀疑我还需要使用 AVCaptureAudioDataOutput。
func setupCaptureSession()
{
captureSession.beginConfiguration()
captureSession.sessionPreset = AVCaptureSessionPreset1280x720
videoOutput.setSampleBufferDelegate(self, queue: DispatchQueue(label: "sample
buffer delegate", attributes: []))
videoOutput.videoSettings = [(kCVPixelBufferPixelFormatTypeKey as NSString) : NSNumber(value: kCVPixelFormatType_32BGRA as UInt32)]
videoOutput.alwaysDiscardsLateVideoFrames = true
captureSession.addOutput(videoOutput)
captureSession.addInput(deviceInputFromDevice(backCameraDevice))
captureSession.addInput(deviceInputFromDevice(micDevice))
captureSession.commitConfiguration()
captureSession.startRunning()
}
然后这是我如何获取视频缓冲区并将其发送到文件中
func captureOutput(_ captureOutput: AVCaptureOutput!, didOutputSampleBuffer sampleBuffer: CMSampleBuffer!, from connection: AVCaptureConnection!)
{
writeVideoFromData(sampleBuffer) // a function that writes the buffer to disk
}
最佳答案
检查func captureOutput(AVCaptureOutput, didOutput: CMSampleBuffer, from: AVCaptureConnection)
如果您想从 AVCaptureAudioDataOutput 获取音频样本数据,则使用 AVCaptureAudioDataOutputSampleBufferDelegate https://developer.apple.com/documentation/avfoundation/avcaptureaudiodataoutputsamplebufferdelegate
关于ios - 使用 AVCaptureVideoDataOutput 和 AVCaptureAudioDataOutput,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44163542/
我尝试制作的应用程序的主要目标是点对点视频流。 (有点像使用蓝牙/WiFi 的 FaceTime)。 使用 AVFoundation,我能够捕获视频/音频样本缓冲区。然后我发送视频/音频样本缓冲区数据
我使用 AVCaptureVideoDataOutput 和 AVCaptureAudioDataOutput 使用 AVFoundation 录制音频/视频。但是当我将我的 AVCaptureAud
我运行了一个 AVCaptureVideoDataOutput session ,设置如下,效果很好,并将缓冲区记录到文件中。 我还想录制音频,但缓冲区中似乎没有任何音频,即使我已将麦克风添加为 ca
Apple 最近的示例代码之一使用相同的串行队列从 AVCaptureVideoDataOutput 和 AVCaptureAudioDataOutput 委托(delegate)接收示例。我需要知道
我尝试从 AVCaptureVideoDataOutput 和 AVCaptureAudioDataOutput 获取 CMSampleBufferRef。 AVCamRecorder.h #impo
我试图通过使用“AVFoundation”制作一个像藤蔓一样的视频应用程序。现在我可以通过 AVCaptureVideoDataOutput 保存视频并可以播放。但不知何故音频不工作,我不知道为什么。
我在使用 AVCaptureVideoDataOutput 和 AVCaptureAudioDataOutput 录制音频+视频时遇到延迟问题。有时视频会停顿几毫秒,有时音频与视频不同步。 我插入了一
我正在尝试创建一个对麦克风数据运行 FFT 的应用程序,因此我可以检查例如输入中最响亮的频率。 我看到有很多获取音频输入的方法(RemoteIO AudioUnit、AudioQueue 服务和 AV
我使用 AVFoundation 创建了一个相机,它能够使用 AVCaptureVideoDataOutput 录制视频和音频和 AVCaptureAudioDataOutput .我创建我的捕获 s
我正在尝试使用 AVCaptureAudioDataOutput 来分析音频输入,如 here 所述.这不是我自己想出来的东西,所以我正在复制这个例子,但我遇到了困难。 Swift 3 中的 Xcod
我正在开发 iOS 应用程序,我想在其中录制分段视频。我读过https://developer.apple.com/library/content/documentation/AudioVideo/C
我是一名优秀的程序员,十分优秀!