Tag: avfoundation
Das AVFoundation-framework bietet sowohl Objective-C und Swift-Schnittstellen zum Bearbeiten und Abspielen von audio-visuellen Medien in einer Mac-OSX-oder iOS-Anwendung. Fragen, die mithilfe dieser Frameworks beinhalten sollte dieser tag.
1
Antworten
Blick auf AVCaptureDevice, es gibt Eigenschaften, die für beide Brenner und flash-Einstellungen. Sie beide scheinen die gleichen Methoden. Ich weiß, dass "Fackel" ist die britische pyromaniacs " Wort für Taschenlampe, aber diese sind wirklich genau die gleiche
3
Antworten
Will ich spielen mp3-Datei im Ressourcen wie code ist unten angegeben, NSString *st=@"alarm_1.mp3"; NSLog(st); NSURL* musicFile = [NSURL fileURLWithPath:st]; AVAudioPlayer *click = [[AVAudioPlayer alloc] initWithContentsOfURL:musicFile error:nil]; //AVAudioPlayer *click1=[[AVAudioPlayer alloc]initWithContentsOfURL:[NSURL URLWithString:@"alarm_1.mp3"]]; [click prepareToPlay]; [click play]; [click release]; aber
5
Antworten
Ich bin mit AVFoundation ist AVPlayer zu spielen 2 video-clips aus 1 längeres video (also das Ende des ersten matches am Anfang des zweiten) Wenn das erste video endet und der Benutzer tippt, erstelle ich einen neuen
2
Antworten
Gemäß dieser Welche Techniken Sind am Besten Live Stream-iPhone-Video-Kamera-Daten Auf einem Computer? möglich ist, um die komprimierten Daten von der iphone Kamera, aber als ich gelesen habe, in dem AVFoundation-Referenz erhalten Sie nur unkomprimierte Daten. Also die
4
Antworten
So, ich bin versucht, die Wiedergabe einer Sounddatei mit einer anderen rate in iOS 5.1.1 und habe absolut kein Glück. Bisher habe ich versucht die Einstellung der rate der AVAudioPlayer: player = [[AVAudioPlayer alloc] initWithContentsOfURL:referenceURL error:&error]; player.enableRate
2
Antworten
Habe ich in diesem Thema für eine Weile jetzt, und ich kann nicht wirklich herausfinden, wie könnte ich dies erreichen. Sagen wir, wir haben ein video von einem HTTP-Stream, und ich möchte in der Lage sein zu
1
Antworten
Ich würde gerne konvertieren CGImage zu CMSampleBufferRef und fügen es ein AVAssetWriterInput mit der appendSampleBuffer: Methode. Ich habe es geschafft die CMSampleBufferRef mit dem folgenden code, aber der appendSampleBuffer: gibt einfach NO wenn ich liefern die daraus
1
Antworten
Stehe ich vor einem seltsamen Problem mit der AVAudioPlayer Klasse mit der audioPlayerDidFinishPlaying:successfully: callback nicht aufgerufen manchmal. Eine abgespeckte version von dem code, der beginnt mit der Wiedergabe aussieht, self.player = [[[AVAudioPlayer alloc] initWithContentsOfURL:localFileAudioURL error:&error] autorelease]; self.player.delegate
2
Antworten
Möchte ich zeigen, eine display-overlay über ein video, und exportieren Sie das video mit diesem display. Ich hatte einen Blick in das AVFoundation Framework, AVCompositions, AVAssets etc. aber ich habe noch nicht eine Idee, dies zu erreichen.
3
Antworten
Habe ich verwendet seekToTime in meiner Anwendung und seinem funktionieren. Aber ich möchte einige weitere Informationen über ihn. Was ist, wenn ich ein streaming-video-Datei von 1 minute jetzt will ich es spielen, aus der zweiten 15 zum
1
Antworten
Mein Aktuelles setup ist wie folgt (basierend auf der ColorTrackingCamera Projekt von Brad Larson): Ich bin mit einem AVCaptureSession eingestellt AVCaptureSessionPreset640x480 für die lasse ich die Ausgabe läuft über eine OpenGL-Szene als textur. Diese textur wird dann
2
Antworten
Ich habe ein problem mit AVAudioPlayer Volumen. Kann ich theAudio.volume-Eigenschaft auf 1.0, aber ich würde lieber nur spielen die audio-bei dem Volumen, das ein Nutzer hat sein iphone Klingelton eingestellt. Loszuwerden, die volume-Eigenschaft standardmäßig ist es bei
1
Antworten
Ich versuche um ein Bild zu konvertieren mit diesem http://developer.apple.com/library/ios/#qa/qa1702/_index.html Ich weiß nicht, ob es ist, weil ich bin mit xcode4 oder weil eine andere Frage. Ich versuche, die code für das IOS4. Und kann nicht kompilieren,
1
Antworten
Ich versuche es mit einem lokalen m4a-oder mp3-Datei und komprimieren/down-sample-dieser Datei (für die Zwecke der Erstellung eine kleinere Datei). Ursprünglich war ich mit dem AVAssetExportSession zu exportieren AVAsset zu einem temp-Verzeichnis, aber ich hatte keine Kontrolle über
3
Antworten
Wirklich etwas seltsam, ist passiert, ich bin versucht, ein Bild mit AVFoundation, die Kamera roll, Bild scheint ganz gut, aber das Bild als Vorschau, hat das Bild um 90 Grad gedreht. Dies ist der code, den ich
1
Antworten
Ich hatte das Bedürfnis, ein Standbild von der nach vorne gerichteten Kamera und speichern Sie es im Verzeichnis "Documents". Fand ich bits und Stücke von code in anderen posts, aber teilen wollte in diesem Fall, andere haben
1
Antworten
Möchte ich den Inhalt ändern von CMSampleBuffer und dann Schreibe es in eine Datei mit AVAssetWriter/AVAssetWriterInput. Ich die Weg dies zu tun ist durch die Schaffung einer Kern-Grafiken bitmap-Kontext und dann die Zeichnung in es, aber es
3
Antworten
Ich bin mit dem AV Foundation für die Aufnahme von Bildern kontinuierlich nach Apple veröffentlicht iOS 4.0 durch die folgenden codes gegeben, http://developer.apple.com/iphone/library/qa/qa2010/qa1702.html Jedoch, wenn ich rufe "[session startRunning];" es dauert etwa 1-2 Sekunden, um die Kamera-Vorschau.
1
Antworten
Habe ich in der Lage zu verwenden AVFoundation ist AVAssetReader Klasse zum hochladen von video-frames in eine OpenGL-ES-textur. Es hat eine Einschränkung, aber, es schlägt fehl, wenn mit einem AVURLAsset Punkte, die zu remote-Medien. Dieses Versagen ist
1
Antworten
Ich habe eine single-view-Anwendung, in der ich am probieren und testen iOS7 ist AVCaptureMetadataOutput basierend auf diese Erklärung. Meine ViewController entspricht AVCaptureMetadataOutputObjectsDelegate und der code sieht so aus (fast genau das gleiche wie Mattt s): - (void)viewDidLoad
2
Antworten
Ich bin erstellen einer iPhone-app, die können manipulieren von video-Dateien. Ich bin mit AVFoundation-Klassen (z.B., AVAsset). Ich registrierte gerade meine Anwendung als handler für alle Dateien, die konform zu den öffentlichen.Film (über CFBundleDocumentTypes). Aber nun meine Anwendung
3
Antworten
Ich habe einen UIViewcontroller, die enthält eine AVPlayerViewController mit AVPlayer. Ich möchte, um die Drehung zu ermöglichen, die für AVPlayerViewController(wenn das video auf Vollbild) und deaktivieren Sie die Drehung für UIViewController. Wie kann ich die rotation nur
4
Antworten
Ich versuche erstellen der Miniaturansicht für video-Dateien: - (UIImage*) thumbnailForVideoAtURL: (NSURL*) videoURL { AVURLAsset *asset = [[AVURLAsset alloc] initWithURL:videoURL options:nil]; AVAssetImageGenerator *generator = [[AVAssetImageGenerator alloc] initWithAsset:asset]; CGImageRef imageHandle = [generator copyCGImageAtTime:kCMTimeZero actualTime:NULL error:NULL]; if (imageHandle) { UIImage
3
Antworten
Ich habe zu kämpfen mit diesem problem seit über einer Woche. Ich hoffe jemand sieht, was ich falsch mache. Ich bin versucht, finishWritingWithCompletionHandler: Methode, da die finishWriting Methode ist jetzt veraltet. Ich habe nicht hatte keinen Erfolg
3
Antworten
Obwohl es sieht aus wie ein einfaches Verfahren, es ist jetzt 3 Stunden bin ich ohne Erfolg versucht. Ich bin wahrscheinlich etwas fehlt wirklich dumm. So, ich habe diese app herunterladen von videos aus dem Internet. Die
2
Antworten
Werde ich wahnsinnig mit diesem ein - habe überall gesucht und versucht, alles und alles, was ich kann, denkt. Mache eine iPhone app, die verwendet AVFoundation - speziell AVCapture, um Videos mit der iPhone-Kamera. Brauche ich, um
1
Antworten
Die docs sind ein wenig schwer zu analysieren ist hier. Ich Frage mich, ob es irgendeinen Weg zu Stream YouTube live in eine iOS-app, ohne deutliche/alle YouTube-branding. Stream von ein iOS-Gerät als broadcast-stream für YouTube live. Meinem
1
Antworten
ich habe ein aufgenommenes video mit AVFoundation .ich habe (video-Einstellung )und in outputsamplebuffer kCVPixelFormatType_420YpCbCr8BiPlanarvideorange-format. Aber ich brauche YUV420-format für die weitere Verarbeitung . Meine Frage ist 1.Unterschied zwischen 420YpCbCr8BiPlanarVideoRange,420YpCbCr8BiPlanarFULLRange, 420YpCbCr8PlanarFullRange,420YpCbCr8Planar und YUV420 ? 2.wie kann ich umwandeln
2
Antworten
Was ist der beste Weg, um erstellen Sie eine genaue Autofokus und Belichtung für AVFoundation benutzerdefinierte layer-Kamera?, aktuell zum Beispiel meine Kamera Vorschau-Schicht quadratisch ist, ich möchte die Kamera Fokus und Belichtung angeben, um diesen Rahmen gebunden.
5
Antworten
Ich will Wellenform-Anzeige in Echtzeit-Eingabe aus dem Mikrofon. Ich habe realisiert installTapOnBus:Puffergröße:format:block: Diese Funktion wird aufgerufen, drei mal in einer Sekunde. Ich möchte, um diese Funktion aufgerufen werden 20-mal pro Sekunde. Wo kann ich das einstellen? AVAudioSession
2
Antworten
Ich habe den ganzen Tag verbracht und ging durch eine Menge SO Antworten, Apple Referenzen, Dokumentationen, etc, aber kein Erfolg. Ich möchte eine einfache Sache: ich Spiele ein video mit dem AVPlayer, und ich will es anhalten
1
Antworten
Arbeite ich an einer app, die ermöglicht Benutzern das aufzeichnen von voice (unter anderem) um das Dokumenten-Verzeichnis der app. Aber wenn ich mir die Aufzeichnung der Stimme, die ich aufnehme, auf der caches-Verzeichnis der app und dann,
1
Antworten
War ich in der Lage zu erfassen video-frames von der Kamera mit AVCaptureSession nach http://developer.apple.com/iphone/library/qa/qa2010/qa1702.html. Es scheint jedoch, dass AVCaptureScreen erfasst frames aus der Kamera, ohne dass das Kamera-stream auf den Bildschirm. Ich möchte auch zeigen, Kamera-stream
2
Antworten
Ich weiß, Sie könnten verschmelzen mehrere clips aus, und erstellen Sie ein einzelnes video indem einer nach dem anderen mit AVFoundation-Klassen - AVURLAsset, AVMutableComposition, AVMutableCompositionTrack etc. Gibt es apps wie "Video-Joiner', die das tun. Was ich will
2
Antworten
Ich habe gerade Stanford iPhone Lektion, die verwendet AVFoundation. Es war die Klasse, wo der TA hatte uns eine App, angezeigt, video-und setzte dann die Sonnenbrille auf das Gesicht mit der Gesichtserkennung. So wollte ich, um hook
2
Antworten
Ich versuche herauszufinden, wie ich das implementieren kann, die Funktionalität, um immer wieder anhalten und fortsetzen von video-capture in einer einzigen Sitzung, aber jedes neue segment (die erfassten Segmente nach jeder pause) Hinzugefügt, um die gleiche video-Datei,
3
Antworten
Wenn die Gewährung eines UIImage ein video über AVAssetImageGenerator, ich bin immer wieder Bilder gedreht (gut, technisch sind Sie nicht), wenn das video ist gedreht im hochformat. Wie kann ich feststellen, welche Ausrichtung das video gedreht wurde
2
Antworten
Ich versuche, AVFoundation-Ernte videos, die ich aufnehme. So können sagen, ich erstellen Sie eine AVCaptureVideoPreviewLayer und legen Sie den Rahmen 300x300. AVCaptureVideoPreviewLayer *captureVideoPreviewLayer = [AVCaptureVideoPreviewLayer layerWithSession:session]; captureVideoPreviewLayer.videoGravity = AVLayerVideoGravityResizeAspectFill; captureVideoPreviewLayer.delegate = self; captureVideoPreviewLayer.frame = CGRectMake(0,0, 300, 300);
4
Antworten
Möchte ich, um eine Miniaturansicht von videos (*.mov), die aufgenommen mit dem iPhone/iPAD. Ich bin versucht, AVFoundation-Bibliothek für diese und immer diese Fehlermeldung: couldn't generate thumbnail, error:Error Domain=AVFoundationErrorDomain Code=-11822 "Cannot Open" UserInfo=0x15d90a30 {NSLocalizedDescription=Cannot Open, NSLocalizedFailureReason=This media format
3
Antworten
Ich bin neu in Swift und ich versuche, Sie ein video hinzufügen, um die anzeigen und entfernen Sie Sie dann, wenn mein "stopScreenSaver" - Benachrichtigung ausgelöst wird. Alles scheint zu funktionieren gut, außer wenn ich zu gehen,
3
Antworten
Ich versuche, audio-in meiner app zu spielen, durch die oberen Lautsprecher auf dem iPhone, die Sie drücken, um Ihr Ohr während eines Telefonats. Ich weiß, es ist möglich, weil ich gespielt habe, ein Spiel aus dem App
2
Antworten
Ich versuche zu erstellen CMSampleBuffer Ref aus den Daten und versuchen zu füttern, um zu AVAssetWriter. Aber asset Schriftsteller versagt, um den Film zu erstellen aus den Daten. Im folgenden ist der code zum erstellen der CMSampleBufferRef.
1
Antworten
Habe ich einige ziemlich basic-code, um ein Standbild mit AVFoundation. AVCaptureDeviceInput *newVideoInput = [[AVCaptureDeviceInput alloc] initWithDevice:[self backFacingCamera] error:nil]; AVCaptureStillImageOutput *newStillImageOutput = [[AVCaptureStillImageOutput alloc] init]; NSDictionary *outputSettings = [[NSDictionary alloc] initWithObjectsAndKeys: AVVideoCodecJPEG, AVVideoCodecKey, nil]; [newStillImageOutput setOutputSettings:outputSettings]; [outputSettings release];
1
Antworten
Ich habe eine AVQueuePlayer (die offensichtlich reicht AVPlayer), lädt eine playlist von streaming-audio. Streaming ist alle arbeiten gut, aber ich hätte gerne eine Aktivitätsanzeige, um zu zeigen, die Benutzer audio geladen wird. Problem ist, ich kann nicht
2
Antworten
Bin ich mit standard-AVFoundation-Klassen für die Aufnahme von Videos und Vorschau zeigen (http://developer.apple.com/library/ios/#qa/qa1702/_index.html) Hier ist mein code: - (void)setupCaptureSession { NSError *error = nil; [self setCaptureSession: [[AVCaptureSession alloc] init]]; self.captureSession.sessionPreset = AVCaptureSessionPresetMedium; device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo]; if
2
Antworten
Möchte ich die Umsetzung der folgenden Dinge, App läuft eine Musik oder ein video (mit MPMoviePlayerController) im hintergrund. Benutzer doppelt klickt auf die home-Taste und gehen Sie zu dem ersten Bildschirm zeigt die Wiedergabe-Bedienelemente (Rücklauf, Wiedergabe /pause,
3
Antworten
Entwickle ich ein video Komprimierung funktional; meine Ideen sind wie folgt: Immer die Auflösung und die bit-rate der video. Überprüfen Sie die Auflösung des Videos. Wenn es größer 640x480, werde ich komprimieren das video in der Hälfte
6
Antworten
AVCaptureVideoPreviewLayer *avLayer = [AVCaptureVideoPreviewLayer layerWithSession:session]; avLayer.frame = self.view.frame; [self.view.layer addSublayer:avLayer]; Benutze ich AVCaptureVideoPreviewLayer zur Darstellung von video-Ansicht auf. Aber das video ist Ansicht nicht füllen bis die volle iPhone4 Bildschirm.(zwei graue Balken rechts&Links) Ich will das video
4
Antworten
Ich bin wirklich begeistert über die neue AVAudioEngine. Es scheint wie eine gute API-wrapper um die audio-Einheit. Leider ist die Dokumentation bisher nicht existent, und ich habe Probleme damit, ein einfaches Diagramm zu arbeiten. Mithilfe der folgenden
2
Antworten
Schreibe ich video basierte social-app für iOS und android(WinPhone ist unter warten). Ich aufgenommene Videos im mov-format mit dem AVFoundation-framework auf dem iPhone und hochgeladen auf den server. Es kann heruntergeladen und gespielt werden auf dem iPhone-client.