✨ AI Kontextualisierung
Mit “Immersive Light Field Video with a Layered Mesh Representation” trägt das Projekt derzeit noch einen recht sperrigen Namen, der vor einer kommerziellen Nutzung wohl nochmal überdacht werden muss. Doch was Google-Mitarbeiter unter diesem Titel kreiert haben, ist durchaus beeindruckend. Ein kolossaler “Capture Rig”, in dem 46 Kameras verbaut sind, fängt das Grundmaterial für ein neues Level von 3D-Video ein. In diesem können User – bevorzugt mit VR-Brille – bis zu einem gewissen Grad die Perspektive wechseln und so sogar “um die Ecke schauen”. Mit bisherigen 3D- oder auch 360-Grad-Video-Lösungen waren Nutzer immer auf einen Beobachtungspunkt fixiert.
Hardware-Seite als kleinere Herausforderung
Die Hardware-Seite ist dabei dem Vernehmen nach die kleinere Herausforderung. Der “Capture Rig” bestehend aus 46 üblichen Sport-Kameras mit je rund 18 Zentimeter Abstand, einer Plexiglas-Halbkugel, einem Gestell und einem Stativ sei “günstig und relativ leicht herzustellen”, meinen die Entwickler in einem Erklär-Video (siehe unten). Sogar Gegenstände in nur 20 Zentimeter Entfernung können erfasst werden.
+++ Mehr News zum Thema Artificial Intelligence +++
Es ist vor allem die Software, die neue Maßstäbe setzt. In einer Reihe von Schritten errechnet der genutzte Algorithmus auf Basis der Google DeepView-AI-Technologie unter anderem die Entfernungen der erfassten Gegenstände und erstellt 3D-Modelle. Am Ende komme aber eine “leichtgewichtiges” Format heraus, das sich auch in mobilen VR/AR-Plattformen, oder im Web-Browser rendern lasse, so die Entwickler in ihrem Whitepaper.
Erklär-Video zu “Immersive Light Field Video with a Layered Mesh Representation”
Unterschied zu bisherigen 3D-Video-Formaten
Dadurch meinen die Projekt-Mitarbeiter auch, einen bedeutenden Fortschritt im Vergleich zu ähnlichen Versuchen der vergangenen zwei Jahrzehnte erreicht zu haben. Während die derzeit gängigen 3D-Video-Formate für VR-Anwendungen durch die statische Perspektive bei vielen Usern zu Übelkeit führen würden, gebe es bei den bisherigen multiperspektivischen Ansätzen stets hohe Hardware-Kosten bei der Erstellung und -Anforderungen bei der Verarbeitung.