gpt4 book ai didi

ios - 如何设置 AVCaptureVideoDataOutput 捕获帧大小?

转载 作者:行者123 更新时间:2023-12-01 17:09:15 35 4
gpt4 key购买 nike

我有一个 layerRect 显示我的相机的图像是这样的:

CGRect layerRect = [[videoStreamView layer] bounds];
[[[self captureManager] previewLayer] setBounds:layerRect];
[[[self captureManager] previewLayer] setPosition:CGPointMake(CGRectGetMidX(layerRect),
CGRectGetMidY(layerRect))];
[[videoStreamView layer] addSublayer:[[self captureManager] previewLayer]];
videoStreamView是我显示视频的 View ,即 150x150。但我使用 setSampleBufferDelegate来自我的 AVCaptureVideoDataOutput ,我得到的视频帧是整个相机图像(1280 * 720)。我该如何修改它?谢谢。

最佳答案

我相信它是由 AVCaptureSession 控制的的sessionPreset属性(property)。我仍在试图弄清楚每个预设值在图像大小等方面的含义。

关于ios - 如何设置 AVCaptureVideoDataOutput 捕获帧大小?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/18272205/

35 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com