- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
一切正常。输出已正确添加,一切都已正确初始化,相机弹出等。唯一不起作用的是将视频设备作为输入添加到捕获 session 或此相机中,我无法理解为什么会发生这种情况。
也许不同的眼睛可以捕捉到这里发生的事情。如果有人可以看一下,我将不胜感激?
import UIKit
import Foundation
import AVFoundation
class CameraViewController: UIViewController {
@IBOutlet var recordingImage: UIImageView!
@IBOutlet var captureButton: UIButton!
@IBOutlet var flipCameraButton: UIButton!
@IBOutlet var switchCaptureButton: UIButton!
@IBOutlet weak var cameraView: UIView!
let cameraCapturePosition: AVCaptureDevicePosition = AVCaptureDevicePosition.Back
let session: AVCaptureSession = AVCaptureSession()
let totalTime: Float64 = 1800 // total time in seconds
let preferredTimeScale: Int32 = 45 // 45 FPS
let minFreeSpace: Int64 = 65999999 // minimum free disk space
var dataObject: AnyObject?
var cameraCaptureDevice: AVCaptureDevice?
var audioCaptureDevice: AVCaptureDevice?
var movieFileOutput: AVCaptureMovieFileOutput?
var stillImageOutput: AVCaptureStillImageOutput?
var videoPreviewLayer: AVCaptureVideoPreviewLayer?
var captureConnection: AVCaptureConnection?
var weAreRecording: Bool = false
var beenHereBefore: Bool = false
var devicesSet: Bool = false
//**************** VIEW DID LOAD *****************
override func viewDidLoad() {
super.viewDidLoad()
registerRuntimeError()
registerDeviceConnections()
setSessionPreset()
}
//**************** VIEW DID APPEAR *****************
override func viewDidAppear(animated: Bool) {
//------INITIALIZE THE CAMERA------
if (!self.beenHereBefore) {
addInputs()
addOutputs()
setCameraOutputProperties()
startSession()
self.beenHereBefore = true
}
else {
println("Been Here Before")
}
self.weAreRecording = false
}
//**************** DID RECEIVE MEMORY WARNING *****************
override func didReceiveMemoryWarning() {
super.didReceiveMemoryWarning()
// Dispose of any resources that can be recreated.
}
//**************** TAKES A PHOTO OR VIDEO *****************
@IBAction func didPressCapture(sender: AnyObject) {
}
//**************** SWITCHES THE CAPTURE MODES OF THE CAMERA ****************
@IBAction func didPressSwitchCapture(sender: AnyObject) {
//
// ----------- TODO ------------
//
}
//**************** FLIPS THE CAMERA BACK AND FORTH ****************
@IBAction func didPressFlipCamera(sender: AnyObject) {
//
// ----------- TODO ------------
//
}
//**************** INITIALIZE THE VIDEO CAPTURE SESSION ****************
func setSessionPreset() {
println("initializing video capture session")
//----- SET THE IMAGE QUALITY / RESOLUTION -----
//Options:
// AVCaptureSessionPresetHigh - Highest recording quality (varies per device)
// AVCaptureSessionPresetMedium - Suitable for WiFi sharing (actual values may change)
// AVCaptureSessionPresetLow - Suitable for 3G sharing (actual values may change)
// AVCaptureSessionPreset640x480 - 640x480 VGA (check its supported before setting it)
// AVCaptureSessionPreset1280x720 - 1280x720 720p HD (check its supported before setting it)
// AVCaptureSessionPresetPhoto - Full photo resolution (not supported for video output)
if session.canSetSessionPreset(AVCaptureSessionPresetHigh) {
println("Capture Session preset is set to High Quality")
session.sessionPreset = AVCaptureSessionPresetHigh
}
else {
//------IF FAILED, SET DEFAULT PRESET TO MEDIUM------
println("Capture Session preset is set to Medium Quality")
session.sessionPreset = AVCaptureSessionPresetMedium
}
}
//**************** ADD CAPTURE SESSION INPUTS ****************
func addInputs() {
println("Getting array of available capture devices")
//------GRAB ALL OF THE DEVICES------
let devices = AVCaptureDevice.devices()
//------FIND THE CAMERA MATCHING THE POSITION------
for device in devices {
if device.position == self.cameraCapturePosition {
self.cameraCaptureDevice = device as? AVCaptureDevice
println("Back camera has been added")
}
}
var error1: NSError? = nil
let videoDeviceInput = AVCaptureDeviceInput(device: self.cameraCaptureDevice, error: &error1)
//------PRINT ERROR IF ONE OCCURS------
if error1 != nil {
println("Error1 ---: \(error1?.description)")
}
//------ADD VIDEO AND AUDIO INPUT------
println("Trying to add video input")
if self.cameraCaptureDevice != nil {
if self.session.canAddInput(videoDeviceInput) {
self.session.addInput(videoDeviceInput)
println("Successfully added video input")
self.devicesSet = true
}
else {
// !!!!!!!!------- VIDEO INPUT IS NOT BEING ADDED TO THE SESSION -----------!!!!!!!!!!!
println("Could not add video input")
}
}
else {
println("Could not create video device")
}
}
//**************** ADD CAPTURE SESSION OUTPUTS ****************
func addOutputs() {
//------SET JPEG OUTPUT------
println("Setting JPEG Output")
self.stillImageOutput = AVCaptureStillImageOutput()
let outputSettings = [ AVVideoCodecKey : AVVideoCodecJPEG ]
self.stillImageOutput!.outputSettings = outputSettings
println("Successfully configured JPEG Ouput")
//------SET MOVIE FILE OUPUT MAX DURATION------
println("Setting Movie File Max Duration")
self.movieFileOutput = AVCaptureMovieFileOutput()
let maxDuration:CMTime = CMTimeMakeWithSeconds(self.totalTime, self.preferredTimeScale)
self.movieFileOutput!.maxRecordedDuration = maxDuration
println("Successully set movie file max duration")
println("Setting movie file minimun byte space")
self.movieFileOutput!.minFreeDiskSpaceLimit = self.minFreeSpace
println("Successfully added minium free space")
//------ADD JPEG OUTPUT AND MOVIE FILE OUTPUT TO SESSION OUTPUT------
println("Adding still image and movie file output")
if self.session.canAddOutput(self.stillImageOutput) && self.session.canAddOutput(self.movieFileOutput) {
self.session.addOutput(self.stillImageOutput)
self.session.addOutput(self.movieFileOutput)
println("Successfully added still image and movie file outputs")
}
else {
println("Could Not Add still image and movie file output")
}
}
//***************** SET ANY CAMERA PROPERTIES HERE ****************
func setCameraOutputProperties () {
//------INIT CAPTURE CONNECTION------
println("initializing the capture connection")
self.captureConnection = self.movieFileOutput!.connectionWithMediaType(AVMediaTypeVideo)
println("Capture Connection succesfully initialized")
}
//***************** REGISTER FOR RUNTIME NOTIFICATIONS ****************
func registerRuntimeError() {
println("Registering for runtime errors")
NSNotificationCenter.defaultCenter().addObserver(self, selector: Selector("didHaveRuntimeError"), name: AVCaptureSessionRuntimeErrorNotification, object: self.session)
}
//**************** REGISTER FOR DEVICE CONNECTION NOTIFICATIONS *****************
func registerDeviceConnections() {
println("Registering for connection notifications")
NSNotificationCenter.defaultCenter().addObserver(self, selector: Selector("deviceConnected"), name: AVCaptureDeviceWasConnectedNotification, object: self.session)
NSNotificationCenter.defaultCenter().addObserver(self, selector: Selector("deviceDisconnected"), name: AVCaptureDeviceWasDisconnectedNotification, object: self.session)
}
//**************** START THE CAPTURE SESSION ****************
func startSession() {
println("About to add session inputs...")
addInputs()
println("Start configuring the capture")
//------CONFIG CAPTURE SESSION------
if !session.running {
println("Displaying camera in UI")
//------DISPLAY CAMERA IN UI------
self.videoPreviewLayer = AVCaptureVideoPreviewLayer(session: self.session)
println("Video Preview Layer set")
self.cameraView.layer.addSublayer(self.videoPreviewLayer)
println("Video Preview Layer Added as sublayer")
self.videoPreviewLayer!.frame = self.cameraView.layer.frame
println("Video Preview frame set")
self.videoPreviewLayer!.videoGravity = AVLayerVideoGravityResizeAspectFill
println("Camera successully can display")
//------START CAMERA------
self.session.startRunning()
println("Capture Session initiated")
}
else {
println("Session is already running, no need to start it again")
}
}
/*
// MARK: - Navigation
// In a storyboard-based application, you will often want to do a little preparation before navigation
override func prepareForSegue(segue: UIStoryboardSegue, sender: AnyObject?) {
// Get the new view controller using segue.destinationViewController.
// Pass the selected object to the new view controller.
}
*/
}
最佳答案
我觉得你错过了
AVCaptureFileOutputRecordingDelegate
你的错误打印出来了吗? :
println("Could not add video input")
println("Could not create video device")
关于ios - 无法弄清楚为什么 VideoDeviceInput 没有被添加到我的 AVCaptureSession,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/29857957/
我正在开发一个视频录制应用程序,需要能够使用蓝牙麦克风作为音频输入(如果已连接)。 我有以下代码来配置 AVCaptureSession 的音频输入: self.captureSession.uses
对于这个“愚蠢”的问题,我提前表示歉意,但我觉得我已经用尽了所有资源。我对 Swift 和一般编码几乎没有经验,但根据过去的经验和基于对象的编程(如 MAX MSP)的使用,我了解了很多。 我正在尝试
我正在尝试将捕获的帧记录为视频,同时并行地对帧执行图像处理任务。 我有一个 AVCaptureSession,我已将两个单独的输出添加到 - AVCaptureVideoDataOutput AVCa
当我尝试构建我的应用程序时,XCode 向我显示此错误 AVCaptureSession 之前应有“(” 有人可以帮我解决这个警告吗?这是我的代码: ViewController.h #import
我能够根据 http://developer.apple.com/iphone/library/qa/qa2010/qa1702.html 使用 AVCaptureSession 从相机捕获视频帧。但
我正在开发一个处理高清照片的应用程序。我正在使用 AVCaptureSession 拍照,停止它,然后对该照片应用效果。 让我疯狂的是,一切都运行良好,仪器告诉我,我正确且按时地释放了我使用的所有内存
我正在构建一个应用程序,允许用户使用 iPhone 相机拍照,并在可用时使用 AVFoundation (iOS4),以便用户可以使用点击对焦功能,即使使用自定义叠加层也是如此。 我遇到的问题是cap
所以这是一个普遍问题,但我们正在寻找有关如何让实时相机 View 能够在顶部添加图像并拍照的线索。所以基本上你可以选择像“帽子”一样覆盖在相机上的图像,调整其大小和位置,然后拍照,“帽子”将出现在你拍
我正在做一个 iOS 应用程序,需要使用这样的层次结构对 QR 码进行验证: View ---Scan View ---Image View - cardBG ---Inside View 加载 Vi
我正在尝试使用 AVCaptureSession 制作自定义相机。 代码和一切工作正常。唯一的问题是 VideoOutput 层被缩放。这使我的照片默认缩放。 我尝试了每件事,但无法找到解决方案。这是
我正在使用 AVCaptureSession 创建带有 AVCaptureMetadataOutput 的 QR 码扫描仪。 一切都按预期工作,但是我想在扫描仪上放置图形叠加层。这样做时,我希望扫描仪
弹出 View Controller 时,我在使用 AVCaptureSession 时遇到一些困难。我在导航 Controller 中有一个 View Controller ,用户可以在其中拍照。捕
有人知道如何使用 AVFoundation (AVCaptureStillImageOutput) 在自定义 iOS 相机中设置自定义分辨率吗? 我知道您可以使用 AVCaptureSession 选
我需要做这样的事情。我的应用程序使用 AVCapturesession 进行录制,但它应该能够流式传输带有我播放过的背景音乐的实时提要。 请记住,我可以使用 AVCapturesession 播放背景
当 AVCaptureSession 的 session 运行到本地 NSMutableArray 中捕获图像时,我收到 didReceiveMemoryWarning 调用。稍作测试后,我发现它发生
我正在尝试将 AVCaptureSession 的音频静音和取消静音。开始 session 后,我可以启用和禁用音频连接,但是一旦我播放视频,所有音频部分都会被推回视频的前面,只留下视频的结尾没有声音
我已经为 ios 应用程序添加了二维码阅读器代码现在我想使用可以用作 ios 中的 Today 扩展的相同代码。我已将以下代码用于应用程序和扩展。该应用程序运行良好,但不适用于扩展程序。 我用过htt
如何使用 AVCaptureSession 录制方形视频?如果在录制时不可能,那么我如何在 didFinishRecordingTo 委托(delegate)方法中裁剪它? 提前致谢! 最佳答案 您可
我收到一条警告: (sending "ViewController *const_strong' to parameter of incompatible type 'id' 执行这行代码时 [out
在我的应用程序中,我录制长达 30 秒的视频。我使用以下行来执行此操作。 [imagePicker setVideoMaximumDuration:30]; 一切正常。然后我决定从 UIImagePi
我是一名优秀的程序员,十分优秀!