- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试处理 AVCaptureSession 的每一帧并在 UIImageView 中预览过滤后的图像。它有效,但 UIImageView 中的图像出现旋转(和扭曲)。我一直试图在这里和在谷歌中找到答案,但我找不到任何可行的解决方案...有人知道要尝试什么吗?
顺便说一句,我正在使用 Swift 3.0
这是我使用的代码:
func captureOutput(_ captureOutput: AVCaptureOutput!, didOutputSampleBuffer sampleBuffer: CMSampleBuffer!, from connection: AVCaptureConnection!) {
let pixelBuffer = CMSampleBufferGetImageBuffer(sampleBuffer)
let attachments = CMCopyDictionaryOfAttachments(kCFAllocatorMalloc, sampleBuffer!, kCMAttachmentMode_ShouldPropagate)
let coreImage = CIImage(cvImageBuffer: pixelBuffer!, options: attachments as! [String : Any]?)
var filteredImage = UIImage(ciImage: coreImage, scale: 1.0, orientation: UIImageOrientation.right)
if filter {
NSLog("FILTER ACTIVATED")
let filterType = CIFilter(name: "CISepiaTone")
filterType?.setValue(coreImage, forKey: kCIInputImageKey)
filterType?.setValue(0.5, forKey: kCIInputIntensityKey)
filteredImage = UIImage(ciImage: filterType!.value(forKey: kCIOutputImageKey) as! CIImage!, scale: filteredImage.scale, orientation: UIImageOrientation.right)
}
DispatchQueue.main.async() {
self.imageViewPreview.image = filteredImage // UIImageView
}
}
这是我在预览中看到的:
提前致谢
最佳答案
我找到了!结果我不得不在该方法中添加行 connection.videoOrientation = AVCaptureVideoOrientation.portrait
...
关于ios - captureOutput :didOutputSampleBuffer:from connection: 中的方向问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43333111/
我正在编写一个用于长时间曝光图像拍摄的应用程序。 我使用了func captureOutput(captureOutput: AVCaptureOutput!, didOutputSampleBuff
我正在尝试根据此页面从前置摄像头获取每一帧:https://developer.apple.com/library/ios/qa/qa1702/_index.html . 我也把我的代码贴在这里: -
AVCaptureOutput 的委托(delegate)方法 didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection
iOS 4.3 测试版 1 我不知道发生了什么,但不知何故,新 Beta 中缺少 sampleBuffer 的 MetaDictionary。任何人都可以批准吗? 我总是得到这样的 MetaDicti
我正在尝试处理 AVCaptureSession 的每一帧并在 UIImageView 中预览过滤后的图像。它有效,但 UIImageView 中的图像出现旋转(和扭曲)。我一直试图在这里和在谷歌中找
我想从 AVCaptureSession 的实时馈送中提取帧,我正在使用 Apple 的 AVCam 作为测试用例。这是 AVCam 的链接: https://developer.apple.com/
我的代码中的 didOutputSampleBuffer 函数没有被调用。我不知道为什么会这样。这是代码: import UIKit import AVFoundation import Accele
我想降低 iPhone 4S 上视频设备的帧速率,以降低调用 didOutputSampleBuffer 委托(delegate)的频率。这是为了提高性能,因为我处理每一帧并且需要一个大帧来显示细节。
我使用 AVCaptureSessionPhoto 允许用户拍摄高分辨率照片。拍照后,我使用 captureOutput:didOutputSampleBuffer:fromConnection: 方
我一直在尝试播放在 didOutputSampleBuffer 委托(delegate)中作为原始数据接收的音频。处理原始数据的正确方法应该是什么? 最佳答案 查看以下来自 Apple 的示例代码:A
我有这个相机应用程序,我想在 didOutputSampleBuffer 回调中获得最大分辨率的图像。现在我在回调中收到的所有帧都是 852 x 640(我正在使用 iPhone 4 进行测试)。仅当
我正在尝试跟踪视频录制的样本缓冲率。 我有一个带有 AVCaptureFileOutputRecordingDelegate 和 AVCaptureVideoDataOutputSampleBuffe
我需要在我的 captureOutput:didOutputSampleBuffer:fromConnection: 方法中有选择地(可靠地)关闭 sampleBuffers 的处理。如您所知,它是从
我试图更好地理解 AVFoundation 框架以及各种 Core xxxx 框架,因此我决定尝试一个简单的视频捕获,看看是否可以将图像输出到 UI。我查看了 rosyWriter 代码和文档,但没有
我正在使用 AVCaptureVideoDataOutput 的 captureOutput:didOutputSampleBuffer:fromConnection: 委托(delegate)方法。
我是一名优秀的程序员,十分优秀!