Tag: avcapturesession

iPhone – führen Sie eine Echtzeit-oder offline erfassen, Sie instanziieren ein AVCaptureSession-Objekt, und fügen Sie entsprechende Eingänge (wie AVCaptureDeviceInput) und Ausgänge (wie AVCaptureMovieFileOutput).

AVCaptureVideoOrientation Querformat Ergebnis in upside-down-Standbilder

Anzahl der Antworten 1 Antworten
Im mit AVCaptureSession für die Aufnahme von Bildern und speichern von Bildern zum album. Wenn ich auf die Schaltfläche klicke, nimmt es den snapshot und speichern album. Aber wenn ich landscape-Modus, klicken Sie dann auf die Schaltfläche

Wie capture frame-by-frame-Bilder aus iPhone-video-Aufzeichnung in Echtzeit

Anzahl der Antworten 1 Antworten
Ich versuche zur Messung der Sättigung der ausgewählten Farbe in real-Zeit, wie diese: Ich bin nach diese Anleitung von Apple. Ich aktualisierte den code für die Arbeit mit BOGEN, und natürlich aus meiner Sicht-controller ein AVCaptureVideoDataOutputSampleBufferDelegate, aber

Konvertieren CMSampleBufferRef zu UIImage mit YUV-Farbraum?

Anzahl der Antworten 1 Antworten
Arbeite ich mit AVCaptureVideoDataOutput und konvertieren wollen CMSampleBufferRef zu UIImage. Viele Antworten sind die gleichen, wie diese UIImage erstellt von CMSampleBufferRef nicht angezeigt UIImageView? und AVCaptureSession mit mehreren previews Funktioniert es einwandfrei, wenn ich die VideoDataOutput Farbraum

Kamera-feed zu langsam für das laden mit AVCaptureSession auf iOS - Wie kann ich das beschleunigen?

Anzahl der Antworten 5 Antworten
Recht jetzt versuche ich, um Benutzern zu erlauben, Bilder in meiner app, ohne mit UIImagePickerController. Ich bin mit AVCaptureSession und alle dazugehörigen Klassen zum laden der Kamera-Feeds als Unterebene auf eine Vollbild-Ansicht habe ich auf einem meiner

AVCaptureSession pause?

Anzahl der Antworten 3 Antworten
Ich bin mit dem AV Foundation für die Aufnahme von Bildern kontinuierlich nach Apple veröffentlicht iOS 4.0 durch die folgenden codes gegeben, http://developer.apple.com/iphone/library/qa/qa2010/qa1702.html Jedoch, wenn ich rufe "[session startRunning];" es dauert etwa 1-2 Sekunden, um die Kamera-Vorschau.

AVCaptureSession Ausgabe wird nicht ordnungsgemäß angezeigt und AVCaptureMetadataOutputObjectsDelegate Methode wird nicht aufgerufen

Anzahl der Antworten 1 Antworten
Ich habe eine single-view-Anwendung, in der ich am probieren und testen iOS7 ist AVCaptureMetadataOutput basierend auf diese Erklärung. Meine ViewController entspricht AVCaptureMetadataOutputObjectsDelegate und der code sieht so aus (fast genau das gleiche wie Mattt s): - (void)viewDidLoad

Abrufen der gewünschten Daten aus einer CVPixelBuffer Referenz

Anzahl der Antworten 1 Antworten
Ich habe ein Programm, dass die Aussicht auf ein Kamera-Eingang in Echtzeit und erhält die Farbe Wert des mittleren pixels. Ich benutze eine captureOutput: Methode zu greifen, die CMSampleBuffer von einem AVCaptureSession Ausgang (was passiert, gelesen werden,

AVCapture appendSampleBuffer

Anzahl der Antworten 2 Antworten
Werde ich wahnsinnig mit diesem ein - habe überall gesucht und versucht, alles und alles, was ich kann, denkt. Mache eine iPhone app, die verwendet AVFoundation - speziell AVCapture, um Videos mit der iPhone-Kamera. Brauche ich, um

Zeigen Kamera-stream während AVCaptureSession läuft

Anzahl der Antworten 1 Antworten
War ich in der Lage zu erfassen video-frames von der Kamera mit AVCaptureSession nach http://developer.apple.com/iphone/library/qa/qa2010/qa1702.html. Es scheint jedoch, dass AVCaptureScreen erfasst frames aus der Kamera, ohne dass das Kamera-stream auf den Bildschirm. Ich möchte auch zeigen, Kamera-stream

Wie verwende ich die metadataOutputRectOfInterestForRect Methode und rectOfInterest Eigenschaft Scannen einen bestimmten Bereich? (QR-Code)

Anzahl der Antworten 7 Antworten
Baue ich eine QR-code-scanner mit Swift und alles funktioniert in dieser Hinsicht. Das Problem, das ich habe ist, dass ich versuche, nur einen kleinen Bereich des gesamten sichtbaren AVCaptureVideoPreviewLayer werden in der Lage zu Scannen QR-codes. Ich

Fokussieren (Autofokus) nicht in Kamera (AVFoundation AVCaptureSession)

Anzahl der Antworten 2 Antworten
Bin ich mit standard-AVFoundation-Klassen für die Aufnahme von Videos und Vorschau zeigen (http://developer.apple.com/library/ios/#qa/qa1702/_index.html) Hier ist mein code: - (void)setupCaptureSession { NSError *error = nil; [self setCaptureSession: [[AVCaptureSession alloc] init]]; self.captureSession.sessionPreset = AVCaptureSessionPresetMedium; device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo]; if

AVCaptureSession legen Sie Auflösung und Qualität der aufgenommenen Bilder obj-c iphone-app

Anzahl der Antworten 2 Antworten
Hallo ich möchte setup AV - capture-session für die Aufnahme von Bildern mit bestimmten Auflösung (und, wenn möglich, mit spezifischen Qualität) mit iphone-Kamera. hier ist setupping AV session-code //Create and configure a capture session and start it

Warum AVCaptureVideoOrientation Querformat Ergebnis in upside-down noch Bilder?

Anzahl der Antworten 3 Antworten
Bin ich mit dem AVFoundation-Klassen zum implementieren einer benutzerdefinierten Kamera in meiner app. Ich bin nur die Erfassung noch Bilder, kein video. Ich habe alles, bin aber überfragt von etwas. I berücksichtigen Sie die Geräteausrichtung, wenn ein

AVFoundation-Kamera-tutorial

Anzahl der Antworten 1 Antworten
Ist es ein basic-tutorial für die AVFoundation für die Verwendung mit der Kamera überall hin? UIImagePicker nicht das richtige tool für mein app, und es sieht aus wie dieses, aber ich bin mir nicht sicher, wie es

iOS AVCaptureSession - How zu get/set-die Anzahl der frames pro Sekunde aufgezeichnet?

Anzahl der Antworten 4 Antworten
Ich bin neu AVCaptureSession und wollen besser verstehen, wie Sie arbeiten. So habe ich es geschafft die Erfassung des video-Streams getrennt CIImages und konvertieren Sie Sie in UIImages. Nun ich möchte in der Lage sein, um die

Die Kameras wechseln, mit avcapturesession

Anzahl der Antworten 6 Antworten
Mit diesem tutorial hier: http://www.musicalgeometry.com/?p=1297 habe ich eine benutzerdefinierte overlay-und Bild-capture mit AVCaptureSession. Ich bin versucht, um dem Benutzer zu ermöglichen, wechseln Sie zwischen der Vorder-und Rückseite Kamera. Hier ist mein code in CaptureSessionManager zu wechseln Kameras:

Die Aufnahme von Bildern aus AVCaptureSession

Anzahl der Antworten 2 Antworten
Lerne ich über AVCaptureSession und gewusst wie: erfassen von mehreren Bildern mit der Delegat-Methode - (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection Mein Ziel ist es zu erfassen, 1 oder viele Bilder mit einer vordefinierten rate pro Sekunde. Zum

AVCaptureSession - Stop-Betrieb - nehmen eine lange, lange Zeit

Anzahl der Antworten 1 Antworten
Ich verwenden ZXing für eine app, ist dies vor allem den gleichen code als die ZXing original-code, außer dass ich erlauben, scan einige Zeit in einer Zeile (dh., die ZXingWidgetController ist nicht necesseraly entlassen, sobald etwas erkannt

Erfassen aktuelle Bild der Kamera mit AVFoundation

Anzahl der Antworten 2 Antworten
Ich versuche, das Bild erfassen und speichern Sie es auf eine variable, wenn ich drücken Sie auf "myButton". Was soll ich tun? Mein code ist wie folgt: import UIKit import AVFoundation import MobileCoreServices class ViewController: UIViewController {

Schalter front - /back-Kamera mit AVCaptureSession

Anzahl der Antworten 3 Antworten
Bin ich nach die einzige Antwort auf SO Die Kameras wechseln, mit avcapturesession Jedoch cameraWithPosition scheint nicht zu funktionieren. Veraltet? //Get new input AVCaptureDevice *newCamera = nil; if(((AVCaptureDeviceInput*)currentCameraInput).device.position == AVCaptureDevicePositionBack) { newCamera = [self cameraWithPosition:AVCaptureDevicePositionFront]; } else

Wie man die Y-Komponente von CMSampleBuffer ergab sich aus der AVCaptureSession?

Anzahl der Antworten 4 Antworten
Hey, ich bin versucht, Zugriff auf raw-Daten aus der iphone-Kamera mit AVCaptureSession. Ich Folge dem guide bereitgestellt durch Apple (hier der link). Den raw-Daten aus der samplebuffer ist im YUV-format ( Bin ich richtig, hier über die

iOS: Kamera-Orientierung

Anzahl der Antworten 1 Antworten
Möchte ich eine Aufnahme mit der Kamera über AVCaptureSession. Funktioniert es, starte ich die Kamera und ich kann mit der Ausgabe. Jedoch habe ich einige Probleme mit video-Ausrichtung, wenn ich das Gerät drehen. Zuerst möchte ich unterstützen

Swift 3 - AVCapture benutzerdefinierte Kamera-Ansicht

Anzahl der Antworten 1 Antworten
Wurde ich durch dieses video, um eine benutzerdefinierte Kamera-Ansicht. https://www.youtube.com/watch?v=w0O3ZGUS3pk jedoch aufgrund der iOS 10 und swift 3 Veränderungen, die viele Dinge waren nicht mehr wichtig im folgenden ist der code, den ich bekam nach dem Wechsel

iPhone-Bild-Verhältnis erfasst von AVCaptureSession

Anzahl der Antworten 1 Antworten
Ich bin mit jemand den Quellcode für die Aufnahme des Bildes mit AVCaptureSession. Allerdings fand ich,dass CaptureSessionManager ist previewLayer ist shotter dann das Letzte aufgenommene Bild. Fand ich, dass das resultierende Bild ist immer mit ratio 720x1280=9:16.

Holen Sie sich die Kamera-Vorschau AVCaptureVideoPreviewLayer

Anzahl der Antworten 2 Antworten
Ich habe versucht, die Kamera am Eingang, um zu zeigen, auf einer preview-Schicht. selbst.cameraPreviewView gebunden, um eine UIView in IB Hier ist mein Aktueller code, den ich zusammen gestellt habe von der AV-Stiftung Programming Guide. Aber die

Scannen Sie den Barcode oder QR-code in Swift 3.0 mit AVFoundation

Anzahl der Antworten 5 Antworten
Ich bin nach dieser tutorial und versucht zu konvertieren codes bilden Swift 2.0 auf 3.0. Aber wenn ich die Anwendung gestartet hat, die app funktioniert nicht! Ich meine, nix passiert!!! Hier ist mein code: ViewController: class ViewController:

Aufzeichnen von Videos mit Swift mit AVCaptureVideoDataOutput oder AVCaptureMovieFileOutput

Anzahl der Antworten 1 Antworten
Brauche ich etwas Anleitung, um ein video aufzunehmen, ohne dafür ein UIImagePicker. Das video muss zum starten und beenden auf einen button klicken und dann diese Daten gespeichert werden, die NSDocumentDirectory. Ich bin neu in swift also

AVCaptureSession ist nicht geben eine gute Foto-Qualität und gute Auflösung

Anzahl der Antworten 3 Antworten
Arbeite ich mit AVCaptureSession für die Aufnahme das Bild. Seine feinen arbeiten aber nicht was eine gute Auflösung. Ich verglich es mit der Bild iPhone-Kamera, und ich fand, dass die iPhone-Kamera-Bild ist viel besser als AVCaptureSession Bild.

AVCaptureSession Aufzeichnen Von Video Mit Audio

Anzahl der Antworten 2 Antworten
Habe ich meine app eingerichtet, zum aufnehmen von Videos von der Kamera mit einem AVCaptureSession, es ist jedoch kein audio. Was muss ich tun, um audio aufzuzeichnen und dann hinzufügen, um den videoOutput für die Datei? Hier

iOS 7 AVCaptureMetadataOutput delegieren (QRCode scanner)

Anzahl der Antworten 2 Antworten
Ich versuche, die Implementierung eines QRCode-scanner mit dem neuen iOS 7-features, aber mein code nicht, den Aufruf der main AVCaptureMetadataOutputObjectsDelegate Methode. Ich habe das AVFoundation-Kamera vor und mit meiner aktuellen Umsetzung habe ich die Vorschau-Schicht läuft ohne

AVCaptureDevice Kamera-Zoom

Anzahl der Antworten 7 Antworten
Habe ich eine einfache AVCaptureSession laufen, um einen Kamera-feed in meine app und machen Fotos. Wie kann ich die Umsetzung der "pinch to zoom" - Funktionalität mit einer UIGestureRecognizer für die Kamera? InformationsquelleAutor der Frage The Kraken

Capture-60 B / s in iPhone-app

Anzahl der Antworten 2 Antworten
Arbeite ich an einem Projekt, wo wir mit iPhones als Kameras für die Erfassung einer Szene. Bei der Aufnahme müssen wir aufnehmen @60 fps und nicht 30 fps (nativ unterstützt). Also ich arbeite an einer app um

Video Speichern in der falschen Orientierung AVCaptureSession

Anzahl der Antworten 4 Antworten
Ich versuche ein video aufnehmen (ohne die Kamera) und speichern Sie es. Aber das video gespeichert ist nicht speichern in der richtigen Orientierung. Ich habe versucht, zwingen die UIViewController, um eine bestimmte Orientierung, aber das hat nicht

AVCapture Erfassung und erste framebuffer bei 60 fps in iOS 7

Anzahl der Antworten 3 Antworten
Ich bin die Entwicklung einer app erfordert die Erfassung framebuffer bei so viel fps wie möglich. Ich habe bereits herausgefunden, wie sich zu zwingen, das iphone für Videoaufnahmen bei 60 fps, aber - (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection

Schalten Sie Fackel / Blitz auf dem iPhone ein

Anzahl der Antworten 9 Antworten
Ich weiß, dass der einzige Weg, um schalten Sie den Blitz ein und lassen Sie es auf dem iPhone 4 ist durch drehen der video-Kamera auf. Ich bin mir nicht sicher, der code aber. Hier ist, was

Versucht CMTime zu verstehen

Anzahl der Antworten 1 Antworten
Habe ich einige Beispiele von CMTime (Drei separate links), aber ich noch nicht bekommen. Ich bin mit einem AVCaptureSession mit AVCaptureVideoDataOutput und ich will um die max und die min Framerate der Ausgabe. Mein problem ist, ich

Wie man ein Bild mit AVCaptureSession in Swift aufnimmt?

Anzahl der Antworten 2 Antworten
Ich habe eine UIViewController in dem ich AVCaptureSession zu zeigen, die Kamera und es funktioniert sehr gut und schnell. Ich legte ein UIButton Objekt auf der Oberseite der Kamera-Ansicht und fügte hinzu, eine IBAction für die Schaltfläche.

Warum gibt AVCaptureSession eine falsche Ausrichtung aus?

Anzahl der Antworten 9 Antworten
So, ich folgte der Anweisungen von Apple zur video-capture-session mit AVCaptureSession: http://developer.apple.com/iphone/library/qa/qa2010/qa1702.html. Ein problem, das ich bin vor ist, dass, obwohl die Ausrichtung der Kamera /iPhone-Gerät ist senkrecht (und die AVCaptureVideoPreviewLayer zeigt eine vertikale Kamera-stream), das Bild

AVCaptureVideoPreviewLayer Orientierung - brauchen Landschaft

Anzahl der Antworten 14 Antworten
Meine app-Landschaft nur. Ich präsentiere die AVCaptureVideoPreviewLayer wie diese: self.previewLayer = [[AVCaptureVideoPreviewLayer alloc] initWithSession:session]; [self.previewLayer setBackgroundColor:[[UIColor blackColor] CGColor]]; [self.previewLayer setVideoGravity:AVLayerVideoGravityResizeAspect]; NSLog(@"previewView: %@", self.previewView); CALayer *rootLayer = [self.previewView layer]; [rootLayer setMasksToBounds:YES]; [self.previewLayer setFrame:[rootLayer bounds]]; NSLog(@"previewlayer: %f, %f, %f,

Wie man "Filter" auf AVCaptureVideoPreviewLayer anwendet

Anzahl der Antworten 2 Antworten
Meine app ist derzeit mit AVFoundation zu nehmen, die rohen Kamera Daten von der hinteren Kamera des iPhone und zeigt Sie auf einem AVCaptureVideoPreviewLayer in Echtzeit. Mein Ziel ist es, bedingt anwenden einfache Bild-Filter, um die Vorschau-Ebene.

Wechseln Sie die Kameras mit avcapturesession

Anzahl der Antworten 6 Antworten
Mit diesem tutorial hier: http://www.musicalgeometry.com/?p=1297 habe ich eine benutzerdefinierte overlay-und Bild-capture mit AVCaptureSession. Ich bin versucht, um dem Benutzer zu ermöglichen, wechseln Sie zwischen der Vorder-und Rückseite Kamera. Hier ist mein code in CaptureSessionManager zu wechseln Kameras:

Erfassen der Herzfrequenz mit der Kamera

Anzahl der Antworten 3 Antworten
Brauche ich die gleiche Funktionalität wie die Anwendung Instant Heart Rate. Den grundlegenden Prozess erfordert, dass der Benutzer: Setzen Sie die Spitze des Zeigefingers sanft auf das Objektiv der Kamera. Gelten auch Druck, und decken Sie die