- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我目前正在编写一段代码,如下所示:
if error == nil && (captureSession?.canAddInput(input))!
{
captureSession?.addInput(input)
stillImageOutput = AVCaptureStillImageOutput()
//let settings = AVCapturePhotoSettings()
//settings.availablePreviewPhotoPixelFormatTypes =
stillImageOutput?.outputSettings = [AVVideoCodecKey : AVVideoCodecJPEG]
if (captureSession?.canAddOutput(stillImageOutput))!
{
captureSession?.addOutput(stillImageOutput)
previewLayer = AVCaptureVideoPreviewLayer(session: captureSession)
previewLayer?.videoGravity = AVLayerVideoGravityResizeAspect
previewLayer?.connection.videoOrientation = AVCaptureVideoOrientation.portrait
cameraView.layer.addSublayer(previewLayer!)
captureSession?.startRunning()
}
}
我知道我应该使用 AVCapturePhotoOutput()
而不是 AVCaptureStillImageOutput()
但是我很困惑如果我让那个改变。
具体来说,如何使用注释的 let settings = AVCapturePhotoSettings()
应用相同的设置?
作为引用,我正在使用 this教程作为指导。
谢谢
最佳答案
Apple 文档对How to use AVCapturePhotoOutput
解释得非常清楚
这些是拍摄照片的步骤。
在您的 clickCapture 方法中使用下面的代码,并且不要忘记在您的类中确认和实现委托(delegate)。
let settings = AVCapturePhotoSettings()
let previewPixelType = settings.availablePreviewPhotoPixelFormatTypes.first!
let previewFormat = [kCVPixelBufferPixelFormatTypeKey as String: previewPixelType,
kCVPixelBufferWidthKey as String: 160,
kCVPixelBufferHeightKey as String: 160,
]
settings.previewPhotoFormat = previewFormat
self.cameraOutput.capturePhoto(with: settings, delegate: self)
如果您想了解从 avfoundation 捕获照片的不同方式,请查看我之前的 SO answer
关于swift - 修改 AVCaptureStillImageOutput 为 AVCapturePhotoOutput,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/41419453/
捕获图像时,输出图像的颜色与我在预览图层上看到的颜色不同。出于某种原因,颜色略有变化。有没有人遇到过这个问题?我怎样才能解决这个问题? 当我从 didFinishProcessingPhotoSamp
我正在运行 ios 12 swift 4.2。 我已经实现了一个基本的相机捕捉 session ,并且正在从中点击图像。一切都很好,直到我在自动/开/关模式之间切换闪光灯。单击第一张照片然后更改闪光灯
我的应用程序因崩溃而被拒绝。我无法在本地重现崩溃,但感谢 Apple 提供的崩溃日志,我能够将有问题的代码缩小为: func capturePhoto() { let photoOutputS
使用 AVCapturePhotoOutput 设置自定义相机。配置 AVCapturePhotoOutput 以提供除了主 JPEG 缓冲区之外的预览缓冲区(缩略图)。 问题是我只收到一次预览缓冲区
我一直致力于使用自定义相机,最近升级到 Xcode 8 beta 和 Swift 3。我最初有这个: var stillImageOutput: AVCaptureStillImageOutput?
我有一个带有 SwiftUI 生命周期的简单 SwiftUI 应用程序,我正在尝试使用AVFoundation 自动拍照。我会根据条件或基于计时器 - 但对于这个例子,我只想在启动时拍照并显示它(不是
我正在创建一个相机应用程序,一切运行良好,但上传到 Firebase 的照片的文件大小太大。它们属于 3MB 类别,我希望它们属于 ±600KB 类别。 我设置了 AVCapturePhotoSett
我看到 iOS 10 引入了 AVCapturePhotoOutput 作为处理照片捕获的新类,并且能够通过将两个缓冲区传递给 来在主图像旁边创建预览/缩略图图像AVCapturePhotoCaptu
我正在制作一个自定义相机应用程序,我可以在其中通过 takePhoto 按钮拍摄我的照片,但是 takePhoto 中出现错误,提示 AVCapturePhotoOutput 没有成员“capture
我有一个应用程序设置,可以使用相机拍摄照片(基于计时器)来检测人脸的存在。当我向应用程序提供我已添加到 Assets 中的照片时,检测过程运行良好。然而,当我尝试直接使用相机的输出,甚至在将图像保存到
我正试图摆脱 AVCaptureStillImageOutput 并采用 iOS 10 中引入的 AVCapturePhotoOutput。 但是,我的部署操作系统是 iOS 9.0。 AVCaptu
我正在关注 Apple 的最新示例代码 AVCam Swift,该代码已更新为使用 AVCapture Photo Output。 var isFlashScene: Bool { get } A B
我正在开发相机应用程序。我正在为 ios 10.x 设备使用 AVCapturePhotoOutput,为 10.x 以下设备使用 AVCaptureStillImageOutput。 我在拍摄照片时
请帮我重构这段代码,它不起作用,我在互联网上搜索但没有找到任何解决方案。我不能自己重构它。 这一行: imageOutput.captureStillImageAsynchronously(from:
我目前正在编写一段代码,如下所示: if error == nil && (captureSession?.canAddInput(input))! { captureSession?.add
很好奇,这在 Swift 4 中会是什么? stimageout = AVCapturePhotoOutput() stimageout?.outputSettings = [AVVideoCodec
以 1080 x 1440 分辨率显示预览;使用代码在 iPhone 8 Plus 上获取最大分辨率 (3024 x 4032) 和质量的照片: capturePhotoOutput?.capture
我发现了以下问题,不幸的是其他帖子没有帮助我找到有效的解决方案。 我有一个简单的应用程序可以显示相机预览 (AVCaptureVideoPreviewLayer),其中视频重力已设置为 resizeA
在新的 Xcode 12 中,出现错误:Value of type 'AVCapturePhotoOutput' has no member 'supportedFlashModes'当我尝试联系 h
背景 我使用 AVCaptureSession 和 AVCapturePhotoOutput 将捕获保存为 JPEG 图像。 let captureSession = AVCaptureSession
我是一名优秀的程序员,十分优秀!