Gibt es eine Algorithmus für die Umwandlung von 2D-video in 3D-video?
Gibt es eine Algorithmus für die Umwandlung von 2D-video in 3D-video (für die Betrachtung mit Brille)?
(A-la-drehen-Avatar in Avatar für ein IMAX 3D Erfahrung.) Oder zumindest es in video vorbereitet, das Gefühl eine 3D-Ansicht mit es ein-la:
(Quelle: 3dglassesonline.com)
oder
(Quelle: 3dglassesonline.com)
- kann mit normalen etwas zu schaffen, wie die 3d-Erfahrung?
- wie es aussieht ist die Idee des auto-color-Methoden für die black & weiß-Filme aus alten Tagen. es ist eine gute Idee.
Du musst angemeldet sein, um einen Kommentar abzugeben.
Sollten Sie wahrscheinlich verstehen den Unterschied zwischen Polfilter-Brillen und rot/blau-Brille. Die rot/blau-Brille 3D-Effekt ist einfach zu tun. Sie müssen einfach nur ein Bild über ein paar Zentimeter voneinander entfernt sind (der Art wie, wie sind die Augen angeordnet sind) und überlagern Sie jedes Bild über den anderen. Es gibt ein tutorial auf wie dies zu tun in Machen Anaglyphen-Bilder in Adobe Photoshop.
Als für die Polfilter-Brillen-Effekt, dies ist ein wenig härter. Wenn Sie gehen zu einem Kino und sehen einen Film in 3D mit polarisierenden Gläsern, Sie sehen echte 3D. Es funktioniert, indem zwei Projektoren. Ein Projektor den Film auf eine Art von Polarisation und der zweite Projektor den Film auf die andere Art der Polarisation. Die Bilder werden überlagert Recht auf der jeweils anderen, so dass, wenn Sie tragen Ihre 3D-Polfilter-Brillen, erscheint es in 3D.
Dies kann nicht getan werden, als einfach mit einem Fernseher oder computer-monitor. Ihren Fernseher oder monitor hätte, um zwei Bilder gleichzeitig. Aufgrund der Popularität von 3D-jetzt aber gibt es 3D-Fernseher und-Monitore, die auf dem Markt, dass nicht zwei Bilder, sondern 3D-display. Hier ist, wie Sie arbeiten:
Einer normalen computer-Bildschirm oder TV-erfrischt bei einer Frequenz von 60 Hz. Das bedeutet, dass 60 mal in einer Sekunde, das Bild, das Sie sehen, ist, aktualisiert wird. Denn dieser ist so schnell das das menschliche Auge nicht zu sehen flimmern. 3D-Fernseher und-Monitore regenerieren bei 120 Hz. Die polarisierenden Bilder sind Austauschvorgänge mit einer rate von 120 mal pro Sekunde, aber da gibt es zwei, es scheint auf den 60 mal in der Sekunde, das ist das, was produziert den 3D-Effekt.
Ich hoffe das hilft Euch ein wenig verstehen.
Ihre Frage zu beantworten, ja, Sie können erstellen, 3D-videos, aber Sie müssen einen 3D-monitor und 3D-TV, um es zu sehen.
Gut, Stanford hat ein Algorithmus für die Konvertierung 2D Fotos in 3D-Modelle. Meine Vermutung ist, dass mit Filme es sollte sogar noch einfacher, weil man dann mehrere Fotos, statt nur einem, damit Sie extrahieren können viel mehr Informationen über die Tiefe durch Vergleich der benachbarten frames.
Wohl, das Ergebnis wird nie so gut werden als wenn Sie einfach machen/Schießen den Film in 3D zu beginnen.
Nicht - 3D-video-verlangen, dass zusätzliche Informationen (Tiefe) vorhanden sein, die einfach nicht in 2D video.
Wenn Sie eine 2D-Darstellung einer kulissen (zum Beispiel in Toy Story), dann seine Recht einfach zu produzieren, einen 3D-film - ändern Sie einfach den Blickwinkel von den kulissen und re-render.
Kann es nicht der Arbeit im Allgemeinen für einen sehr einfachen Grund: Angenommen, Sie haben eine Szene mit einem Fenster in einer Wand, auf einem Strand, und neben, dass, Sie haben ein Foto zeigt ein Fenster in einer Wand, auf einem Strand. Wie kann der Algorithmus unterscheidet zwischen den zwei? Wie können Sie erkennen, was ist Realität, mit der Tiefe und was ist nur eine Wohnung fotografieren?
Nicht wirklich. Sollte der Algorithmus doch irgendwie verstehen die Szene Inhalt und extrapolieren ausführliche Informationen ab? Denken Sie daran, dass 3D video muß die Tiefe Informationen. Ansonsten gibt es keine Möglichkeit zu wissen, wie viel Versatz Sie die beiden Rahmenteile.
Wahrscheinlich könnte man versuchen, es durch die Zuordnung von unterschiedlichen tiefen zu verschiedenen Graden der out-of-focus, aber ich Zweifel etwas Verwertbares rauskommen würde.
Kein einzelner Algorithmus, pro sagen, aber ja, es ist möglich. Es ist sehr schwer. Es gibt Menschen, die auf dieses problem sofort. Die algorithmen, die involviert sind, sehr anspruchsvoll zu schreiben, Sie arbeiten nicht immer Recht, und eine vollständige Lösung würde erfordern eine große Menge von Rechenleistung. Jede Lösung wäre offline (statt Echtzeit) auf den ersten.
3D-Wahrnehmung ist nicht gebunden, wie eng die stereo-Optik, wie Sie vielleicht glauben. Wenn Sie denken, Sie brauchen zwei Augen, um zu sehen, in 3D, dann versuchen Sie zu Fuß etwa mit eine Augenklappe auf. Sie tun gerade fein. Es gibt eine (kleine) Anzahl von Programmen gibt, darunter auch einige kommerzielle software-Pakete, die das erstellen von 3D-Modellen aus 2D-Bilder ohne stereo-Kamera. Einige online -, Bau ein detaillierteres Modell, als mehr davon zu sehen ist.
Nur daran denke, ich kann mir denken, einige Probleme, die Sie ausführen würden, in der mit Filmen im besonderen. Zum Beispiel könnte ich mir vorstellen, mattes immer gerendert auf eine falsche Tiefe. Videos mit Spezialeffekten von software wie Apple Motion, könnte das zu merkwürdigen Artefakten.
Es gibt bereits algorithmen zur Extraktion von 3D-Formen aus 2D-Bildern, hier, oder hier, zum Beispiel. Sie können extrahieren Sie die Formen von jedem frame des Videos, und sogar die Verwendung mehrerer frames zu gewinnen besseres Verständnis der Formen durch den Nachweis Ihrer Bewegung.
Jedoch, Chancen sind, dass die Ergebnisse werden nirgendwo in der Nähe der standard-Qualität der Inhalte von einem 3D-Film.
Gab es einige der Forschung getan auf dieser an einem Ort habe ich mal gearbeitet (obwohl ich war nicht involviert, es überhaupt). Dieses Papier, Automatische Extraktion von 3D-Modellen aus flugzeuggestützten Videosequenz hilfreich sein könnten.
Vielleicht gibt es ja einen Algorithmus für die Emulation von stereoskopischen Ansichten, aber es kann nicht die gleiche sein.
Der Grund ist ganz einfach. In einem 2D-video ist nicht nur fehlt die Tiefe der Informationen (die nicht ausreicht, um eine stereoskopische video), aber es fehlen die versteckten Oberflächen, die sichtbar sein würde, aus einem anderen Blickwinkel.
Jeder denken könnte, dass die Tiefe der Informationen könnte extrapoled aus den verfügbaren Informationen, und das ist wahr. Aber die fehlenden Informationen nicht so richtig für eine gute stereoskopische Wirkung.
Abgesehen davon, ich habe gehört, über ein system, das konnte extrahieren Sie genaue 3D-Modelle von 8 (acht!) die Kameras zeigen auf das gleiche Ziel. Es ist also genau zu emulieren, auch die Kleidung, die Bewegungen richtig. Dies geschieht jedoch processing 8 (acht!) 2D-videos. Wie es möglich sein könnte, um das gleiche Ergebnis erzielen mit nur einer 2D-video?
Die Erlangung des gewünschten Ergebnisses hängt im wesentlichen von der Verfügbarkeit von Informationen, und in diesem Fall (IMHO) es ist nicht genügend Informationen. Obwohl, könnte es möglich sein, zu versuchen, zu emulieren stereoskopische Effekt aus einem 2D-video, aber im wesentlichen braucht es eine harte Arbeit, lange die Bearbeitung und die Konsequenz daraus ist die geringe Qualität der Ergebnisse hinsichtlich einer ursprünglichen stereospic video.
Möchte ich daran erinnern, dass der 3D-Ansicht wird erzeugt durch unser Gehirn. Die Augen erfassen können, nur 2D-Bilder, und unser Gehirn, die Verarbeitung der zwei Bilder erzeugen kann, die einen fundierten Einblick in das gesehen-Objekte.
In diesem Jahr CES zeigen, Toshiba präsentiert der cell-TV-Anzeige, und Sie behaupten, dass es in der Lage, konvertieren von 2D-tv-Signale in 3D. Ich weiß nicht, ob es produziert ein gutes Ergebnis oder welchen Algorithmus Sie verwenden, aber wenn es wahr ist, es sollte ein Algorithmus für diese.
Aber leider, ich weiß nicht, wie es getan werden könnte.