una tomar sacar puedo pro pantallazo pantalla hacer como captura apple ios swift camera avcapturesession

ios - tomar - Cómo capturar una imagen con AVCaptureSession en Swift?



screenshot ipad 6 (2)

Tengo un UIViewController en el que utilizo AVCaptureSession para mostrar la cámara y funciona bien y rápido. UIButton un objeto UIButton encima de esta vista de cámara y agregué un IBAction para el botón.

Así es como se ve ahora:

Ahora quiero obtener la imagen de la vista actual de la cámara cuando el usuario toca el botón:

@IBAction func takePicture(sender: AnyObject) { // omg, what do do?! }

No tengo ni idea de cómo puedo hacer eso. Me imaginaba que podría haber algo así como:

let captureSession = AVCaptureSession() var myDearPicture = captureSession.takePicture() as UIImage // something like it?

El enlace completo para el código del controlador está aquí https://gist.github.com/rodrigoalvesvieira/392d683435ee29305059 , espero que ayude


Muestra AVCaptureSession

import UIKit import AVFoundation class ViewController: UIViewController { let captureSession = AVCaptureSession() let stillImageOutput = AVCaptureStillImageOutput() var error: NSError? override func viewDidLoad() { super.viewDidLoad() let devices = AVCaptureDevice.devices().filter{ $0.hasMediaType(AVMediaTypeVideo) && $0.position == AVCaptureDevicePosition.Back } if let captureDevice = devices.first as? AVCaptureDevice { captureSession.addInput(AVCaptureDeviceInput(device: captureDevice, error: &error)) captureSession.sessionPreset = AVCaptureSessionPresetPhoto captureSession.startRunning() stillImageOutput.outputSettings = [AVVideoCodecKey:AVVideoCodecJPEG] if captureSession.canAddOutput(stillImageOutput) { captureSession.addOutput(stillImageOutput) } if let previewLayer = AVCaptureVideoPreviewLayer(session: captureSession) { previewLayer.bounds = view.bounds previewLayer.position = CGPointMake(view.bounds.midX, view.bounds.midY) previewLayer.videoGravity = AVLayerVideoGravityResizeAspectFill let cameraPreview = UIView(frame: CGRectMake(0.0, 0.0, view.bounds.size.width, view.bounds.size.height)) cameraPreview.layer.addSublayer(previewLayer) cameraPreview.addGestureRecognizer(UITapGestureRecognizer(target: self, action:"saveToCamera:")) view.addSubview(cameraPreview) } } } func saveToCamera(sender: UITapGestureRecognizer) { if let videoConnection = stillImageOutput.connectionWithMediaType(AVMediaTypeVideo) { stillImageOutput.captureStillImageAsynchronouslyFromConnection(videoConnection) { (imageDataSampleBuffer, error) -> Void in let imageData = AVCaptureStillImageOutput.jpegStillImageNSDataRepresentation(imageDataSampleBuffer) UIImageWriteToSavedPhotosAlbum(UIImage(data: imageData), nil, nil, nil) } } } override func didReceiveMemoryWarning() { super.didReceiveMemoryWarning() } }

Ejemplo de UIImagePickerController

import UIKit class ViewController: UIViewController, UINavigationControllerDelegate, UIImagePickerControllerDelegate { let imagePicker = UIImagePickerController() @IBOutlet weak var imageViewer: UIImageView! override func viewDidLoad() { super.viewDidLoad() // Do any additional setup after loading the view, typically from a nib. } override func didReceiveMemoryWarning() { super.didReceiveMemoryWarning() // Dispose of any resources that can be recreated. } func imagePickerController(picker: UIImagePickerController, didFinishPickingImage image: UIImage!, editingInfo: [NSObject : AnyObject]!) { dismissViewControllerAnimated(true, completion: nil) imageViewer.image = image } @IBAction func presentImagePicker(sender: AnyObject) { if UIImagePickerController.isCameraDeviceAvailable( UIImagePickerControllerCameraDevice.Front) { imagePicker.delegate = self imagePicker.sourceType = UIImagePickerControllerSourceType.Camera presentViewController(imagePicker, animated: true, completion: nil) } } }


Como AVCaptureStillImageOutput está en desuso, creé otro ejemplo de Swift de usar AVCaptureSession y AVCapturePhotoOutput en iOS 10. Compruébalo.