Tag: avfoundation

Das AVFoundation-framework bietet sowohl Objective-C und Swift-Schnittstellen zum Bearbeiten und Abspielen von audio-visuellen Medien in einer Mac-OSX-oder iOS-Anwendung. Fragen, die mithilfe dieser Frameworks beinhalten sollte dieser tag.

AVCaptureDevice: Blitz oder Taschenlampe?

Anzahl der Antworten 1 Antworten
Blick auf AVCaptureDevice, es gibt Eigenschaften, die für beide Brenner und flash-Einstellungen. Sie beide scheinen die gleichen Methoden. Ich weiß, dass "Fackel" ist die britische pyromaniacs " Wort für Taschenlampe, aber diese sind wirklich genau die gleiche

Ich kann nicht spielen mp3-Datei mit AVAudioPlayer

Anzahl der Antworten 3 Antworten
Will ich spielen mp3-Datei im Ressourcen wie code ist unten angegeben, NSString *st=@"alarm_1.mp3"; NSLog(st); NSURL* musicFile = [NSURL fileURLWithPath:st]; AVAudioPlayer *click = [[AVAudioPlayer alloc] initWithContentsOfURL:musicFile error:nil]; //AVAudioPlayer *click1=[[AVAudioPlayer alloc]initWithContentsOfURL:[NSURL URLWithString:@"alarm_1.mp3"]]; [click prepareToPlay]; [click play]; [click release]; aber

Schalt-Videos in AVPlayer Erzeugt Flash Beim Wechsel

Anzahl der Antworten 5 Antworten
Ich bin mit AVFoundation ist AVPlayer zu spielen 2 video-clips aus 1 längeres video (also das Ende des ersten matches am Anfang des zweiten) Wenn das erste video endet und der Benutzer tippt, erstelle ich einen neuen

Was ist der beste Weg des live-streaming-iphone-Kamera ein media server?

Anzahl der Antworten 2 Antworten
Gemäß dieser Welche Techniken Sind am Besten Live Stream-iPhone-Video-Kamera-Daten Auf einem Computer? möglich ist, um die komprimierten Daten von der iphone Kamera, aber als ich gelesen habe, in dem AVFoundation-Referenz erhalten Sie nur unkomprimierte Daten. Also die

AVAudioPlayer rate

Anzahl der Antworten 4 Antworten
So, ich bin versucht, die Wiedergabe einer Sounddatei mit einer anderen rate in iOS 5.1.1 und habe absolut kein Glück. Bisher habe ich versucht die Einstellung der rate der AVAudioPlayer: player = [[AVAudioPlayer alloc] initWithContentsOfURL:referenceURL error:&error]; player.enableRate

Spielen Sie ein video vom live-stream, während auch das speichern der Streams auf die Festplatte auf iOS

Anzahl der Antworten 2 Antworten
Habe ich in diesem Thema für eine Weile jetzt, und ich kann nicht wirklich herausfinden, wie könnte ich dies erreichen. Sagen wir, wir haben ein video von einem HTTP-Stream, und ich möchte in der Lage sein zu

Wie konvertiere ich eine CGImage zu CMSampleBufferRef?

Anzahl der Antworten 1 Antworten
Ich würde gerne konvertieren CGImage zu CMSampleBufferRef und fügen es ein AVAssetWriterInput mit der appendSampleBuffer: Methode. Ich habe es geschafft die CMSampleBufferRef mit dem folgenden code, aber der appendSampleBuffer: gibt einfach NO wenn ich liefern die daraus

AVAudioPlayer audioPlayerDidFinishPlaying:erfolgreich: nicht genannt

Anzahl der Antworten 1 Antworten
Stehe ich vor einem seltsamen Problem mit der AVAudioPlayer Klasse mit der audioPlayerDidFinishPlaying:successfully: callback nicht aufgerufen manchmal. Eine abgespeckte version von dem code, der beginnt mit der Wiedergabe aussieht, self.player = [[[AVAudioPlayer alloc] initWithContentsOfURL:localFileAudioURL error:&error] autorelease]; self.player.delegate

iOS AVFoundation - eine Uhrzeit-Anzeige über ein video-und exportieren

Anzahl der Antworten 2 Antworten
Möchte ich zeigen, eine display-overlay über ein video, und exportieren Sie das video mit diesem display. Ich hatte einen Blick in das AVFoundation Framework, AVCompositions, AVAssets etc. aber ich habe noch nicht eine Idee, dies zu erreichen.

AVPlayer seektoTime iPhone

Anzahl der Antworten 3 Antworten
Habe ich verwendet seekToTime in meiner Anwendung und seinem funktionieren. Aber ich möchte einige weitere Informationen über ihn. Was ist, wenn ich ein streaming-video-Datei von 1 minute jetzt will ich es spielen, aus der zweiten 15 zum

Schalten AVCaptureSession Vorgabe beim erfassen eines Fotos

Anzahl der Antworten 1 Antworten
Mein Aktuelles setup ist wie folgt (basierend auf der ColorTrackingCamera Projekt von Brad Larson): Ich bin mit einem AVCaptureSession eingestellt AVCaptureSessionPreset640x480 für die lasse ich die Ausgabe läuft über eine OpenGL-Szene als textur. Diese textur wird dann

Einstellung AVAudioPlayer Volumen des Benutzers ring volume?

Anzahl der Antworten 2 Antworten
Ich habe ein problem mit AVAudioPlayer Volumen. Kann ich theAudio.volume-Eigenschaft auf 1.0, aber ich würde lieber nur spielen die audio-bei dem Volumen, das ein Nutzer hat sein iphone Klingelton eingestellt. Loszuwerden, die volume-Eigenschaft standardmäßig ist es bei

AVFoundation Funktionen undefiniert in arm6/arm7

Anzahl der Antworten 1 Antworten
Ich versuche um ein Bild zu konvertieren mit diesem http://developer.apple.com/library/ios/#qa/qa1702/_index.html Ich weiß nicht, ob es ist, weil ich bin mit xcode4 oder weil eine andere Frage. Ich versuche, die code für das IOS4. Und kann nicht kompilieren,

AVAssetWriter, Wie Sie schreiben, nach unten abgetastet/komprimierte m4a/mp3 Dateien

Anzahl der Antworten 1 Antworten
Ich versuche es mit einem lokalen m4a-oder mp3-Datei und komprimieren/down-sample-dieser Datei (für die Zwecke der Erstellung eine kleinere Datei). Ursprünglich war ich mit dem AVAssetExportSession zu exportieren AVAsset zu einem temp-Verzeichnis, aber ich hatte keine Kontrolle über

AVFoundation die Ausrichtung der Bilder aus um 90 Grad in der Vorschau, aber fein in der Kamera roll

Anzahl der Antworten 3 Antworten
Wirklich etwas seltsam, ist passiert, ich bin versucht, ein Bild mit AVFoundation, die Kamera roll, Bild scheint ganz gut, aber das Bild als Vorschau, hat das Bild um 90 Grad gedreht. Dies ist der code, den ich

Wie kann ich capture ein Bild aus der iOS-Kamera ohne Benutzer-Interaktion?

Anzahl der Antworten 1 Antworten
Ich hatte das Bedürfnis, ein Standbild von der nach vorne gerichteten Kamera und speichern Sie es im Verzeichnis "Documents". Fand ich bits und Stücke von code in anderen posts, aber teilen wollte in diesem Fall, andere haben

Die effizienteste Art und Weise zu ändern CMSampleBuffer Inhalt

Anzahl der Antworten 1 Antworten
Möchte ich den Inhalt ändern von CMSampleBuffer und dann Schreibe es in eine Datei mit AVAssetWriter/AVAssetWriterInput. Ich die Weg dies zu tun ist durch die Schaffung einer Kern-Grafiken bitmap-Kontext und dann die Zeichnung in es, aber es

AVCaptureSession pause?

Anzahl der Antworten 3 Antworten
Ich bin mit dem AV Foundation für die Aufnahme von Bildern kontinuierlich nach Apple veröffentlicht iOS 4.0 durch die folgenden codes gegeben, http://developer.apple.com/iphone/library/qa/qa2010/qa1702.html Jedoch, wenn ich rufe "[session startRunning];" es dauert etwa 1-2 Sekunden, um die Kamera-Vorschau.

Kann ich mit AVFoundation stream heruntergeladen video-frames in eine OpenGL-ES-textur?

Anzahl der Antworten 1 Antworten
Habe ich in der Lage zu verwenden AVFoundation ist AVAssetReader Klasse zum hochladen von video-frames in eine OpenGL-ES-textur. Es hat eine Einschränkung, aber, es schlägt fehl, wenn mit einem AVURLAsset Punkte, die zu remote-Medien. Dieses Versagen ist

AVCaptureSession Ausgabe wird nicht ordnungsgemäß angezeigt und AVCaptureMetadataOutputObjectsDelegate Methode wird nicht aufgerufen

Anzahl der Antworten 1 Antworten
Ich habe eine single-view-Anwendung, in der ich am probieren und testen iOS7 ist AVCaptureMetadataOutput basierend auf diese Erklärung. Meine ViewController entspricht AVCaptureMetadataOutputObjectsDelegate und der code sieht so aus (fast genau das gleiche wie Mattt s): - (void)viewDidLoad

Video-Formate, AVFoundation, und UTIs

Anzahl der Antworten 2 Antworten
Ich bin erstellen einer iPhone-app, die können manipulieren von video-Dateien. Ich bin mit AVFoundation-Klassen (z.B., AVAsset). Ich registrierte gerade meine Anwendung als handler für alle Dateien, die konform zu den öffentlichen.Film (über CFBundleDocumentTypes). Aber nun meine Anwendung

iOS: AVPlayerViewController aktivieren Vollbild-rotation in portrait-orientierten Anwendung

Anzahl der Antworten 3 Antworten
Ich habe einen UIViewcontroller, die enthält eine AVPlayerViewController mit AVPlayer. Ich möchte, um die Drehung zu ermöglichen, die für AVPlayerViewController(wenn das video auf Vollbild) und deaktivieren Sie die Drehung für UIViewController. Wie kann ich die rotation nur

Ist es möglich, AVURLAsset zu arbeiten, ohne eine Datei-Erweiterung?

Anzahl der Antworten 4 Antworten
Ich versuche erstellen der Miniaturansicht für video-Dateien: - (UIImage*) thumbnailForVideoAtURL: (NSURL*) videoURL { AVURLAsset *asset = [[AVURLAsset alloc] initWithURL:videoURL options:nil]; AVAssetImageGenerator *generator = [[AVAssetImageGenerator alloc] initWithAsset:asset]; CGImageRef imageHandle = [generator copyCGImageAtTime:kCMTimeZero actualTime:NULL error:NULL]; if (imageHandle) { UIImage

AVAssetWriter finishWritingWithCompletionHandler Fehlermeldung mit unbekannter Fehler

Anzahl der Antworten 3 Antworten
Ich habe zu kämpfen mit diesem problem seit über einer Woche. Ich hoffe jemand sieht, was ich falsch mache. Ich bin versucht, finishWritingWithCompletionHandler: Methode, da die finishWriting Methode ist jetzt veraltet. Ich habe nicht hatte keinen Erfolg

Kopieren Sie die heruntergeladenen Videos zu camera roll

Anzahl der Antworten 3 Antworten
Obwohl es sieht aus wie ein einfaches Verfahren, es ist jetzt 3 Stunden bin ich ohne Erfolg versucht. Ich bin wahrscheinlich etwas fehlt wirklich dumm. So, ich habe diese app herunterladen von videos aus dem Internet. Die

AVCapture appendSampleBuffer

Anzahl der Antworten 2 Antworten
Werde ich wahnsinnig mit diesem ein - habe überall gesucht und versucht, alles und alles, was ich kann, denkt. Mache eine iPhone app, die verwendet AVFoundation - speziell AVCapture, um Videos mit der iPhone-Kamera. Brauche ich, um

YouTube live auf iOS?

Anzahl der Antworten 1 Antworten
Die docs sind ein wenig schwer zu analysieren ist hier. Ich Frage mich, ob es irgendeinen Weg zu Stream YouTube live in eine iOS-app, ohne deutliche/alle YouTube-branding. Stream von ein iOS-Gerät als broadcast-stream für YouTube live. Meinem

420YpCbCr8BiPlanarVideoRange Zu YUV420 ?/Gewusst wie: kopieren von Y und Cbcr-Ebene auf eine Einzige Ebene?

Anzahl der Antworten 1 Antworten
ich habe ein aufgenommenes video mit AVFoundation .ich habe (video-Einstellung )und in outputsamplebuffer kCVPixelFormatType_420YpCbCr8BiPlanarvideorange-format. Aber ich brauche YUV420-format für die weitere Verarbeitung . Meine Frage ist 1.Unterschied zwischen 420YpCbCr8BiPlanarVideoRange,420YpCbCr8BiPlanarFULLRange, 420YpCbCr8PlanarFullRange,420YpCbCr8Planar und YUV420 ? 2.wie kann ich umwandeln

Autofokus und Auto-Belichtung in AVFoundation auf Benutzerdefinierte Kamera-Ebene

Anzahl der Antworten 2 Antworten
Was ist der beste Weg, um erstellen Sie eine genaue Autofokus und Belichtung für AVFoundation benutzerdefinierte layer-Kamera?, aktuell zum Beispiel meine Kamera Vorschau-Schicht quadratisch ist, ich möchte die Kamera Fokus und Belichtung angeben, um diesen Rahmen gebunden.

Ich will rufen 20 mal pro Sekunde die installTapOnBus:Puffergröße:format:block:

Anzahl der Antworten 5 Antworten
Ich will Wellenform-Anzeige in Echtzeit-Eingabe aus dem Mikrofon. Ich habe realisiert installTapOnBus:Puffergröße:format:block: Diese Funktion wird aufgerufen, drei mal in einer Sekunde. Ich möchte, um diese Funktion aufgerufen werden 20-mal pro Sekunde. Wo kann ich das einstellen? AVAudioSession

iOS: AVPlayer - immer einen snapshot des aktuellen frame eines Videos

Anzahl der Antworten 2 Antworten
Ich habe den ganzen Tag verbracht und ging durch eine Menge SO Antworten, Apple Referenzen, Dokumentationen, etc, aber kein Erfolg. Ich möchte eine einfache Sache: ich Spiele ein video mit dem AVPlayer, und ich will es anhalten

Wann ist die iPhone-app cache gelöscht?

Anzahl der Antworten 1 Antworten
Arbeite ich an einer app, die ermöglicht Benutzern das aufzeichnen von voice (unter anderem) um das Dokumenten-Verzeichnis der app. Aber wenn ich mir die Aufzeichnung der Stimme, die ich aufnehme, auf der caches-Verzeichnis der app und dann,

Zeigen Kamera-stream während AVCaptureSession läuft

Anzahl der Antworten 1 Antworten
War ich in der Lage zu erfassen video-frames von der Kamera mit AVCaptureSession nach http://developer.apple.com/iphone/library/qa/qa2010/qa1702.html. Es scheint jedoch, dass AVCaptureScreen erfasst frames aus der Kamera, ohne dass das Kamera-stream auf den Bildschirm. Ich möchte auch zeigen, Kamera-stream

iOS-Video-Editing - Ist es möglich, merge (side by side nicht eine nach der anderen) zwei video-Dateien in eine mit iOS 4 AVFoundation-Klassen?

Anzahl der Antworten 2 Antworten
Ich weiß, Sie könnten verschmelzen mehrere clips aus, und erstellen Sie ein einzelnes video indem einer nach dem anderen mit AVFoundation-Klassen - AVURLAsset, AVMutableComposition, AVMutableCompositionTrack etc. Gibt es apps wie "Video-Joiner', die das tun. Was ich will

Wie erfolgreich ein BOOL in Xcode 4.3

Anzahl der Antworten 2 Antworten
Ich habe gerade Stanford iPhone Lektion, die verwendet AVFoundation. Es war die Klasse, wo der TA hatte uns eine App, angezeigt, video-und setzte dann die Sonnenbrille auf das Gesicht mit der Gesichtserkennung. So wollte ich, um hook

Pause & fortsetzen der video-capture für die gleiche Datei mit dem AVFoundation in iOS

Anzahl der Antworten 2 Antworten
Ich versuche herauszufinden, wie ich das implementieren kann, die Funktionalität, um immer wieder anhalten und fortsetzen von video-capture in einer einzigen Sitzung, aber jedes neue segment (die erfassten Segmente nach jeder pause) Hinzugefügt, um die gleiche video-Datei,

AVAssetImageGenerator liefert Bilder gedreht

Anzahl der Antworten 3 Antworten
Wenn die Gewährung eines UIImage ein video über AVAssetImageGenerator, ich bin immer wieder Bilder gedreht (gut, technisch sind Sie nicht), wenn das video ist gedreht im hochformat. Wie kann ich feststellen, welche Ausrichtung das video gedreht wurde

Wie verwende ich AVFoundation zum zuschneiden von video -

Anzahl der Antworten 2 Antworten
Ich versuche, AVFoundation-Ernte videos, die ich aufnehme. So können sagen, ich erstellen Sie eine AVCaptureVideoPreviewLayer und legen Sie den Rahmen 300x300. AVCaptureVideoPreviewLayer *captureVideoPreviewLayer = [AVCaptureVideoPreviewLayer layerWithSession:session]; captureVideoPreviewLayer.videoGravity = AVLayerVideoGravityResizeAspectFill; captureVideoPreviewLayer.delegate = self; captureVideoPreviewLayer.frame = CGRectMake(0,0, 300, 300);

Immer ein thumbnail von einem *.mov video IOS

Anzahl der Antworten 4 Antworten
Möchte ich, um eine Miniaturansicht von videos (*.mov), die aufgenommen mit dem iPhone/iPAD. Ich bin versucht, AVFoundation-Bibliothek für diese und immer diese Fehlermeldung: couldn't generate thumbnail, error:Error Domain=AVFoundationErrorDomain Code=-11822 "Cannot Open" UserInfo=0x15d90a30 {NSLocalizedDescription=Cannot Open, NSLocalizedFailureReason=This media format

Mit Swift mit AVPlayer, wie Sie hinzufügen und entfernen Sie ein video über den code?

Anzahl der Antworten 3 Antworten
Ich bin neu in Swift und ich versuche, Sie ein video hinzufügen, um die anzeigen und entfernen Sie Sie dann, wenn mein "stopScreenSaver" - Benachrichtigung ausgelöst wird. Alles scheint zu funktionieren gut, außer wenn ich zu gehen,

Abspielen von audio durch die oberen (Anruf) Lautsprecher

Anzahl der Antworten 3 Antworten
Ich versuche, audio-in meiner app zu spielen, durch die oberen Lautsprecher auf dem iPhone, die Sie drücken, um Ihr Ohr während eines Telefonats. Ich weiß, es ist möglich, weil ich gespielt habe, ein Spiel aus dem App

Erstellen CMSampleBufferRef aus den Daten

Anzahl der Antworten 2 Antworten
Ich versuche zu erstellen CMSampleBuffer Ref aus den Daten und versuchen zu füttern, um zu AVAssetWriter. Aber asset Schriftsteller versagt, um den Film zu erstellen aus den Daten. Im folgenden ist der code zum erstellen der CMSampleBufferRef.

Warum funktioniert die Aufnahme von Bildern mit AVFoundation mir 480x640 Bilder, wenn die voreingestellten 640x480 ist?

Anzahl der Antworten 1 Antworten
Habe ich einige ziemlich basic-code, um ein Standbild mit AVFoundation. AVCaptureDeviceInput *newVideoInput = [[AVCaptureDeviceInput alloc] initWithDevice:[self backFacingCamera] error:nil]; AVCaptureStillImageOutput *newStillImageOutput = [[AVCaptureStillImageOutput alloc] init]; NSDictionary *outputSettings = [[NSDictionary alloc] initWithObjectsAndKeys: AVVideoCodecJPEG, AVVideoCodecKey, nil]; [newStillImageOutput setOutputSettings:outputSettings]; [outputSettings release];

AVQueuePlayer/AVPlayer laden-Benachrichtigung?

Anzahl der Antworten 1 Antworten
Ich habe eine AVQueuePlayer (die offensichtlich reicht AVPlayer), lädt eine playlist von streaming-audio. Streaming ist alle arbeiten gut, aber ich hätte gerne eine Aktivitätsanzeige, um zu zeigen, die Benutzer audio geladen wird. Problem ist, ich kann nicht

Fokussieren (Autofokus) nicht in Kamera (AVFoundation AVCaptureSession)

Anzahl der Antworten 2 Antworten
Bin ich mit standard-AVFoundation-Klassen für die Aufnahme von Videos und Vorschau zeigen (http://developer.apple.com/library/ios/#qa/qa1702/_index.html) Hier ist mein code: - (void)setupCaptureSession { NSError *error = nil; [self setCaptureSession: [[AVCaptureSession alloc] init]]; self.captureSession.sessionPreset = AVCaptureSessionPresetMedium; device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo]; if

Wie kann ich wissen, die Benutzer auf schnellen Vorlauf und Rücklauf-Tasten auf dem Wiedergabe-Steuerelemente im iPhone

Anzahl der Antworten 2 Antworten
Möchte ich die Umsetzung der folgenden Dinge, App läuft eine Musik oder ein video (mit MPMoviePlayerController) im hintergrund. Benutzer doppelt klickt auf die home-Taste und gehen Sie zu dem ersten Bildschirm zeigt die Wiedergabe-Bedienelemente (Rücklauf, Wiedergabe /pause,

Wie um zu überprüfen, Auflösung, bitrate von video in iOS

Anzahl der Antworten 3 Antworten
Entwickle ich ein video Komprimierung funktional; meine Ideen sind wie folgt: Immer die Auflösung und die bit-rate der video. Überprüfen Sie die Auflösung des Videos. Wenn es größer 640x480, werde ich komprimieren das video in der Hälfte

AVCaptureVideoPreviewLayer füllen nicht den ganzen iPhone 4S Bildschirm

Anzahl der Antworten 6 Antworten
AVCaptureVideoPreviewLayer *avLayer = [AVCaptureVideoPreviewLayer layerWithSession:session]; avLayer.frame = self.view.frame; [self.view.layer addSublayer:avLayer]; Benutze ich AVCaptureVideoPreviewLayer zur Darstellung von video-Ansicht auf. Aber das video ist Ansicht nicht füllen bis die volle iPhone4 Bildschirm.(zwei graue Balken rechts&Links) Ich will das video

Tippen Sie auf Mikrofon-Eingang Mit AVAudioEngine in Swift

Anzahl der Antworten 4 Antworten
Ich bin wirklich begeistert über die neue AVAudioEngine. Es scheint wie eine gute API-wrapper um die audio-Einheit. Leider ist die Dokumentation bisher nicht existent, und ich habe Probleme damit, ein einfaches Diagramm zu arbeiten. Mithilfe der folgenden

Spielen Sie Videos auf dem android-aufgenommen vom iPhone

Anzahl der Antworten 2 Antworten
Schreibe ich video basierte social-app für iOS und android(WinPhone ist unter warten). Ich aufgenommene Videos im mov-format mit dem AVFoundation-framework auf dem iPhone und hochgeladen auf den server. Es kann heruntergeladen und gespielt werden auf dem iPhone-client.