Tag: core-audio
Core Audio ist ein low-level-API für den Umgang mit sound in apples macOS und iOS-Betriebssysteme.
2
Antworten
Habe ich diese MPMovePlayerController und eine benutzerdefinierte Schieberegler (das ist nicht ganz ein Schieberegler, aber es hat den gleichen Zweck). Wenn man bedenkt, dass mein "Schieberegler" können wieder alle float-Wert ich brauche, wie kann ich die Lautstärke
3
Antworten
Will ich spielen mp3-Datei im Ressourcen wie code ist unten angegeben, NSString *st=@"alarm_1.mp3"; NSLog(st); NSURL* musicFile = [NSURL fileURLWithPath:st]; AVAudioPlayer *click = [[AVAudioPlayer alloc] initWithContentsOfURL:musicFile error:nil]; //AVAudioPlayer *click1=[[AVAudioPlayer alloc]initWithContentsOfURL:[NSURL URLWithString:@"alarm_1.mp3"]]; [click prepareToPlay]; [click play]; [click release]; aber
1
Antworten
Ich bin Generierung von audio-programmgesteuert. Ich höre Lücken des Schweigens zwischen meinen Puffer. Wenn ich den Haken " mein Handy einen Bereich, sehe ich, dass die ersten paar Proben von jedem Puffer fehlen, und an Ihre Stelle
2
Antworten
Ich Schwierigkeiten beim extrahieren der amplitude der Daten von lineare PCM auf dem iPhone gespeicherte audio.caf. Meine Fragen sind: Linear PCM speichert die amplitude der Proben als 16-bit-Werte. Ist das richtig? Wie ist die amplitude gespeichert in
1
Antworten
Kann jemand zeigen Sie mir die Dokumentation unter Angabe der native sampling-rate auf den verschiedenen iPhone Versionen, um zu vermeiden core-audio interne sampling-rate-Konvertierung? Edit: Ansonsten können Sie bitte zeigen Sie mir ein Quellcode-Beispiel, wie bekomme ich diese
3
Antworten
Ich bin auf der Suche auf dieses Beispiel http://teragonaudio.com/article/How-to-do-realtime-recording-with-effect-processing-on-iOS.html und ich möchte mich von meinem Ausgang. Ich versuche es zu ändern: kAudioSessionCategory_PlayAndRecord zu kAudioSessionCategory_RecordAudio aber das wird nicht funktionieren. Ich versuche auch, um loszuwerden off: if(AudioUnitSetProperty(*audioUnit, kAudioUnitProperty_StreamFormat,
3
Antworten
Ich habe auf der Jagd gewesen alle über das Internet für material über vocoder oder autotune, aber nicht bekam keine befriedigenden Antworten. Könnte mir jemand auf einfache Weise erklären Sie bitte, wie Sie autotune eine bestimmte sound-Datei
3
Antworten
Ich bewusst diese Frage gestellt wurde, bevor, aber ich habe nicht gesehen, eine Antwort, die funktioniert für meine Bedürfnisse. Im Grunde habe ich songs in voller Länge .caf-format, aber ich muss in der Lage sein zum hochladen/herunterladen
1
Antworten
Ich würde gern die Core-Audio-erweitert-audio-Datei-services-framework zum Lesen einer mp3-Datei, verarbeiten Sie es als PCM, schreiben Sie dann die geänderte Datei wieder als mp3-Datei. Ich bin in der Lage, konvertieren Sie die mp3-Datei PCM, bin aber NICHT in
1
Antworten
Ich Encodierung PCM (CMSampleBufferRef(s) going-live aus AVCaptureAudioDataOutputSampleBufferDelegate) in AAC. Wenn die ersten CMSampleBufferRef ankommt, habe ich beide (in/out) AudioStreamBasicDescription(s), "" aus "" laut Dokumentation AudioStreamBasicDescription inAudioStreamBasicDescription = *CMAudioFormatDescriptionGetStreamBasicDescription((CMAudioFormatDescriptionRef)CMSampleBufferGetFormatDescription(sampleBuffer)); AudioStreamBasicDescription outAudioStreamBasicDescription = {0}; //Always initialize the fields of
3
Antworten
Basierend auf was ich gelesen habe, habe ich einen Algorithmus für die FM-Klangsynthese. Ich bin mir nicht sicher, wenn ich es Recht. Bei der Erstellung eines software-synth instrument eine Funktion wird verwendet, um zu erzeugen, einen Oszillator
2
Antworten
Haben wir eine audio-Anwendung für Mac OSX, das ist Musik-player mit einigen audio-Effekte . Seitdem haben wir ein Upgrade auf mavericks(10.9) finden wir eine seltsame Frage, die ich.e, wenn wir Anruf von facetime unsere Anwendung Lautstärke automatisch
1
Antworten
Schreibe ich eine iOS-Anwendung, die das Abspielen von audio-Anweisungen als eine von Funktionen. Jedes mal, wenn die Anwendung spielen will, audio liest er aus einem nicht-standard-Datei und stellt die resultierenden PCM-Daten, die audio in einem Puffer im
5
Antworten
Ich bin neu in CoreAudio, und ich möchte die Ausgabe einer einfachen Sinus-und Rechtecksignal mit einer bestimmten Frequenz und amplitude über die Lautsprecher mit CA. Ich will nicht mit dem sound-Dateien, wie ich will, zu synthetisieren den
1
Antworten
Bin ich mit den folgenden Einstellungen für die Aufzeichnung von audio-Datei in .mp3-format mit AVAudioRecorder. NSDictionary *recordSettings = [[NSDictionary alloc] initWithObjectsAndKeys: [NSNumber numberWithFloat: 44100.0],AVSampleRateKey, [NSNumber numberWithInt: kAudioFormatMPEGLayer3],AVFormatIDKey, [NSNumber numberWithInt: 1], AVNumberOfChannelsKey, [NSNumber numberWithInt: AVAudioQualityMax],AVEncoderAudioQualityKey,nil]; Aber nicht in
5
Antworten
weiß jemand, wie man eine einfache EQ-audio-Einheit (3 Bänder low, mid, hi) mit iOS ? Ich weiß, wie ich hinzufügen, eine iPod-EQ-Audio-Gerät, um meine AU-Graph. Aber es geben nur Sie den Zugang zu presets und ich müssen
1
Antworten
Ich Schreibe ein CoreAudio-backend für eine audio-Bibliothek namens XAL. Eingabe-Puffer können in verschiedenen sample-raten. Ich bin mit einem single-audio-Gerät für die Ausgabe. Idee ist, konvertieren Sie die Puffer und mischen Sie diese vor dem Absenden an die
2
Antworten
Die situation geht ein wenig so etwas wie dieses: Ich bin der Programmierung Xcode, während gleichzeitig Musik hören über bluetooth-Kopfhörer... weißt du, zu blockieren, die Welt. Dann gehe ich zum starten meiner app in den iOS-simulator und
3
Antworten
Brauche ich zum konvertieren einer WAV-Datei in eine AAC-kodierte M4A-Datei auf iOS. Ich bin mir bewusst, dass die AAC-Kodierung wird nicht unterstützt, auf älteren Geräten oder im simulator. Ich Teste das, bevor ich den code ausführen. Aber
3
Antworten
Ich habe eine app mit tab bar,nav bar and table view. In der Tabelle anzeigen Sie können wählen, zu hören audio. Neue Ansicht öffnet sich und dort habe ich einige Steuerelemente wie: play,pause,Lautstärke-regler, Fortschritte Schieberegler, label mit
5
Antworten
Ich bin der Entwicklung einer iOS-Anwendung (gezielte speziell für das iPhone, im moment), erfordert die Anwendung audio aufnehmen nur vom iPhone interne Mikrofon (auch wenn Kopfhörer/headset angeschlossen ist), und die Wiedergabe mit Kopfhörer (mal davon ausgegangen, dass
2
Antworten
Meine audio-Analyse-Funktion reagiert besser auf dem iPad (2) als das iPhone (4). Es scheint empfindlich auf weichere Klänge auf dem iPad, während das iPhone erfordert viel lauter input, um richtig reagieren. Ob dieses ist, weil der mic-Platzierung,
4
Antworten
Ich bin wirklich begeistert über die neue AVAudioEngine. Es scheint wie eine gute API-wrapper um die audio-Einheit. Leider ist die Dokumentation bisher nicht existent, und ich habe Probleme damit, ein einfaches Diagramm zu arbeiten. Mithilfe der folgenden
1
Antworten
Habe ich einige wrapper Funktionen zu Kapseln, die Arbeit mit CoreAudio, und das Ziel ist, erstellen Sie eine C-Bibliothek, die ich nutzen kann mit einigen Kommandozeilen-C++ - tools. So weit sind die Dinge gut funktionieren. Ich nahm
6
Antworten
Ich gesucht habe und ich glaube, mein problem ist ziemlich einzigartig. Ich bin mir bewusst, dass der Simulator 5.1 Fehler bei der Verwendung von AVAudioPlayer, das ist nicht mein problem. Ich bin auf einem iOS 5.1 Gerät.
3
Antworten
Ich bin der Entwicklung eines Musik-streaming-Anwendung. Kann ich mp3-stream mit einer Methode, die beschrieben hier. Weiß jemand, Ansatz zum streamen von anderen Formaten(ASX, RTSP oder mms) mit Core Audio-oder andere framework. Vielen Dank im Voraus. Sie können
3
Antworten
Ich wollen speichern Sie eine audio-Datei in den Dokumente-Ordner meiner Anwendung, während eine der Klassen in meinem app-streaming ist es. Wie kann ich dies tun? Ist es möglich, zum speichern der Audiostreams direkt zu einer mp3? (wenn
1
Antworten
gibt es eine Möglichkeit meine konvertieren aufgezeichnet .caf-Dateien zu .mp3 in der iPhone SDK /Core-Audio -, etwas anderes? Ich habe auf der Suche um für eine Weile, aber alle die ich gefunden habe, war ein Befehl Linie
2
Antworten
Ich möchten, führen Sie eine audio-Datei durch so etwas wie skype-echo-Stornierung-Funktion. iChat und anderen VoIPs haben dieses feature auch, aber ich finde keine software, die ich importieren können, oder öffnen Sie meine Datei in die. InformationsquelleAutor dezman
2
Antworten
Habe ich eine app erstellt haben, spielt viele Töne auf die einfache Weise: AudioServicesPlaySystemSound(someSoundID); Wenn ich das Gerät Lautstärke-Tasten erhöhen oder verringern Sie die Lautstärke, die Lautstärke, die ich tatsächlich ändern, ist der Handy-Klingelton-Lautstärke. Also, wenn Sie
3
Antworten
Derzeit arbeite ich an einer Anwendung, die als Teil meines Bachelor in Computer Science. Die Anwendung wird die Korrelation von Daten aus der iPhone-hardware (Beschleunigungssensor, gps) und die Musik, die gespielt wird. Sich das Projekt noch in
2
Antworten
Auf dem iPhone die ich brauche, um den Pfad für die Ressource. OK, gemacht, aber wenn es um CFURLCreateFromFileSystemRepresentation Sache, ich weiß nur nicht, wie man dieses Problem lösen. Warum dieser Fehler auftreten? Keine Lösung oder Problemumgehung
4
Antworten
Ich bin auf der Suche nach einem Weg, um die Tonhöhe der aufgezeichneten audio -, wie es auf der Festplatte gespeichert oder wiedergegeben (in Echtzeit). Ich verstehe, Audio Units verwendet werden kann. Das iPhone bietet nur eingeschränkte
3
Antworten
(Objective C) Nur mit einfachen AudioServicesPlaySystemSoundID und seine Kollegen, aber ich kann nicht finden Sie in der Dokumentation, wenn es bereits ein Weg, um die Länge einer audio-Datei. Ich weiß, es ist AudioServicesGetPropertyInfo, aber das scheint mir
5
Antworten
Alle eine Hilfe für mich, um Aufnahme und Wiedergabe von audio Gleichzeitig im Iphone. Senden Sie mir weitere Beschreibung. Die Aufnahme sollte durchgeführt werden, indem mic? Wie präzise werden die Synchronisation, etc. Vielleicht sollten Sie sich apple
4
Antworten
Wie kann ich nutzen AudioObjectGetPropertyData in OS X, um eine Liste der system-Eingabegeräte? Ich habe derzeit folgende dummy-code zum abrufen einer globalen Liste der Geräte: AudioDeviceID devices[12]; UInt32 arraySize = sizeof(devices); AudioObjectPropertyAddress thePropertyAddress = { kAudioHardwarePropertyDevices, kAudioObjectPropertyScopeGlobal,
4
Antworten
Hej. Ich möchte Implementierung eines Echtzeit-audio-Anwendungen mit der neuen AVAudioEngine im Swift. Hat jemand Erfahrung mit dem neuen Rahmen? Wie funktioniert real-time-Anwendungen arbeiten? Meine erste Idee war, die zum speichern der (verarbeiteten) Daten in einem AVAudioPCMBuffer Objekt
4
Antworten
Voice Rekorder nicht braucht unkomprimierte Lineare PCM-audio. Komprimiert AMR würde das gut machen. Die iPhone-framework für die Aufzeichnung von audio ist einfach genug, aber die einzigen Beispiele, die ich gefunden habe zum einstellen der audio-format (die kommen
1
Antworten
Ich gelesen habe, diese Frage: Mit der Apple-FFT und Beschleunigen Framework Wie richte ich einen Puffer, wenn dabei eine FFT mit der Accelerate-framework? iOS FFT Accerelate.Rahmen zeichnen Spektrum während der Wiedergabe Sie alle beschreiben, wie Sie setup-fft
2
Antworten
Was sind die richtigen Arten von Initialisierung (Zuweisung von Speicher) und freigeben (freigeben) einer AudioBufferList mit 3 AudioBuffers? (Ich bin mir bewusst, dass es möglicherweise mehr als eine Möglichkeiten, dies zu tun.) Würde ich gerne diese 3-Puffer
3
Antworten
So erzeugen Sie audio-wave-form programmgesteuert während der Sprachaufnahme in iOS? m arbeiten auf die Sprach-modulation audio-Frequenzbereich in iOS... alles ist in Ordnung ...muss nur einige bewährte einfache Möglichkeit zum generieren von audio-wave-form auf-Erkennung Lärm... Bitte nicht, verweisen
3
Antworten
Ich Suche ein Beispiel für die Verwendung von Audio-Queue Services. Ich würde gerne einen sound zu schaffen, mit Hilfe einer mathematischen Gleichung ein, und dann hört es auf. InformationsquelleAutor der Frage Sagiftw | 2010-07-24
3
Antworten
Ich Schreibe eine Anwendung, die audio-Aufzeichnungen. Ich bin auf der Suche in die Machbarkeit der Unterstützung von multitasking, während Sie audio-Aufnahmen (im hintergrund). Die Antwort scheint zu sein, ein keine von dem, was ich bisher gelesen habe,
3
Antworten
Was wäre der beste Weg, um bekommen-Hz-Frequenz der Wert von audio-stream(Musik) auf iOS? Was sind die beste und einfachste frameworks von Apple, das zu tun. Vielen Dank im Voraus. InformationsquelleAutor der Frage Olga Dalton | 2012-07-27
2
Antworten
Mache ich eine iPhone Aufnahme-app muss zum senden der sound-Datei als .wav auf einem externen server. Ausgehend von der SpeakHere Beispiel, ich bin in der Lage, Ton aufzeichnen, als Datei, sondern nur als .caf Weiß jemand, wie
4
Antworten
Ich bin mit der MusicSequenceFileCreate - Funktion zum speichern einer midi-Datei, um sicherzustellen, dass die Daten korrekt sind. Ich bekomme keine Fehler, aber ich möchte, um die gespeicherten Dateien anzuzeigen, haben aber keine Idee, wie dies zu
1
Antworten
Ich Lesen song aus der iPod-Bibliothek mit assetUrl (im code benannt audioUrl) Ich kann es spielen viele Möglichkeiten, ich kann schneiden Sie es, ich kann einige Präzession mit diesem aber... Ich verstehe wirklich nicht, was ich jetzt
9
Antworten
Möchte ich das Programm ein einfaches audio-sequencer auf dem iphone aber ich kann nicht ein genaues timing. Die letzten Tage habe ich versucht, alle möglichen audio-Techniken auf dem iphone, ab AudioServicesPlaySystemSound und AVAudioPlayer und OpenAL zu AudioQueues.
5
Antworten
Ich habe eine Menge Forschung, die sowohl auf Google und StackOverflow. Alle Antworten, die ich gefunden habe funktionieren nicht unter iOS 7. Ich begann zu schreiben frische app in iOS 7 SDK, Xcode 5. Alles was ich
5
Antworten
Gibt es Haufen Helfer filess in 'iPublicUtility' Ordner von mehreren audio-Apple-Beispiel-codes, wie aurioTouch: http://developer.apple.com/library/ios/#samplecode/aurioTouch/Introduction/Intro.html Kann ich bauen diese Proben in Ordnung. Aber immer wenn ich ein neues Projekt erstellen, für das testen und die Dateien aus 'iPublicUtility'