Op het moment waarop Buzz Aldrin zich naast Neil Armstrong voegde op het maanoppervlak tijdens de eerste maanlanding, startte spontaan de conversatie over hoe adembenemend hun uitzicht was. Ondertussen zaten 650 miljoen kijkers op Aarde aan hun analoge televisie gekluisterd, maar hun droom om naast Armstrong en Aldrin van datzelfde uitzicht te genieten zou voor ieder van hen bij een droom blijven. Dit roept de vraag op of er eigenlijk niet beter gedaan kan worden, maar in plaats van voor de maanlanding, voor de toekomstige bemande reizen naar Mars gepland in de jaren 2030-2040.
Het antwoord is: ja, dankzij virtual reality, of kortweg VR. Je zou thuis een VR bril kunnen opzetten en zo de Marslanding meemaken alsof je er zelf bij was, met een sensatie van totale immersie die uniek is aan VR. Niet alleen krijg je hetzelfde idee van diepte zoals bij een 3D bril, het laat je ook toe om vrij rond te kijken en bewegen in je omgeving.
Ondanks de aantrekkingskracht van VR brillen om de toeschouwer helemaal onder te dompelen in een andere wereld, zijn er niet veel mensen die er eentje thuis liggen hebben. Dit komt omdat de markt voor VR applicaties vooral gericht is op bedrijven en gamers. Er valt echter een veel grotere vis aan de haak te slaan: de miljarden industrie van films en video’s. Denk maar aan giganten zoals Disney, Universal, Netflix en Youtube. Zij hebben er baat bij om de aandacht van hun publiek te vangen met de nieuwste, meest indrukwekkende technologie. Bijvoorbeeld, voor de blockbuster “Jurassic World” verkoos 50 procent van de bioscoopverzoekers om de film in 3D te beleven. VR is de natuurlijke opvolger van 3D, maar helaas is het ook een pak ingewikkelder.
Momenteel kunnen we met een VR bril al van films genieten in de vorm van 360° video’s. Hierbij kan de kijker het hoofd ronddraaien, maar men heeft niet de vrijheid om rond te bewegen. Bovendien is het zo dat er bij 360° video’s geen perceptie van diepte is zoals bij 3D films (waarbij twee camera’s gebruikt worden) of traditionele VR (waarbij de gebruiker rondloopt in een 3D model). Door deze twee nadelen is het beter om 360° video achterwege te laten en de traditionele VR weg op te gaan.
Stel dat je de Marslanding in VR zou willen bekijken, dan zou je een 3D model van het oppervlak, de raket en de astronauten moeten bouwen. Hiervoor is een team van experts nodig die de camerabeelden van de landing moeten bestuderen om de omgeving in elkaar te zetten op de computer. De hoeveelheid geld en tijd die hierin geïnvesteerd zou moeten worden is simpelweg niet rendabel. Vandaar dat dit soort VR applicaties niet succesvol zijn.
Wat als we een computer programmeren om de camera beelden rechtstreeks te gebruiken om automatisch de gefilmde omgeving te reconstrueren? De kost om zo’n VR ervaring aan te bieden zou gevoelig naar beneden gaan, tot het punt waarop het wel rendabel wordt.
In mijn masterproef heb ik een methode ontwikkeld voor het automatisch reconstrueren van echt bestaande omgevingen, zodat ze in VR herbeleeft kunnen worden. Laten we de Marslanding als voorbeeld nemen. Eerst moet de vorm van de landingssite waarin de kijker zal mogen rondlopen opgemeten worden, bijvoorbeeld via diepte sensoren. Hierbij horen ook de vorm van de raket en de astronauten, die zich eigenlijk continu verplaatsen. De dieptemetingen moeten dus meerdere malen per seconde uitgevoerd worden, tot en met het einde van de landing.
Eenmaal de vorm gekend is, moet hij nog ingekleurd worden. Dit wordt gedaan door een collectie aan camera’s over het Marsoppervlak te verspreiden. De camera’s kunnen zo de kleurenpatronen van alles wat ze zien vastleggen op video. Via enkele berekeningen kunnen de gecapteerde kleuren geassocieerde worden met de objecten in de scène waartoe ze behoren. Het resultaat is een 3D model dat verandert over tijd en dat, wanneer het in VR bekeken wordt, de toeschouwer toelaat om in de getoonde wereld rond te lopen.
Er blijft op dit moment nog één probleem over: verschillende camera’s kunnen eenzelfde object een verschillende kleur geven. Dit gebeurt bijvoorbeeld in het geval van een spiegel: als twee camera’s naar dezelfde spiegel kijken vanuit een verschillend standpunt, dan zullen ze elk een andere reflectie zien. Reflecties vormen dus een probleem. Merk op dat de meeste objecten in het echte leven een lichte reflectie vertonen, dus ook de raket en de astronautpakken.
Dit probleem kan aangepakt worden door de realisatie dat welke reflectie je te zien krijgt afhankelijk is vanuit welke hoek je naar het object kijkt. In mijn thesis ontwikkelde ik een methode die op elk moment de juiste kleuren kan selecteren om uiteindelijk de reflecties zo realistisch mogelijk te doen overkomen.
Het resultaat van mijn masterproef is een techniek die de echte wereld kan reconstrueren in VR met fotorealistische kwaliteit. Doordat dit automatisch gebeurt, is het een bijzonder efficiënte techniek, vergeleken met hoe VR applicaties normaal gezien ontwikkeld worden. Met deze methode kunnen interessante evenementen op elke plaats en elk tijdstip gemakkelijk opgenomen en later herbeleefd worden.
Wie weet beleven we op een dag onze favoriete series en films alsof we erbij zijn en dat lijkt me toch wel een heel opwindend vooruitzicht. Ik hoop wel dat als het moment zover is, er niet teveel kijkers zodanig opgezogen zullen zijn in de actie dat ze hun kleine teen tegen de living tafel stoten. Ik spreek uit ervaring.
1. STANLEY G. BLACK M. BUTLER D., WULFF J.,A naturalistic open source movie foroptical flow evaluation., In Proceedings of European Conference on Computer Vision (2012),2012.
2. G. D. d. Dinechin and A. Paljic,From real to virtual: An image-based rendering toolkit tohelp bring the world around us into virtual reality, 2020 IEEE Conference on Virtual Realityand 3D User Interfaces Abstracts and Workshops (VRW), 2020, pp. 348–353.
3. S. Fachada, D. Bonatto, A. Schenkel, and G. Lafruit,Depth image based view synthesiswith multiple reference views for virtual reality, 2018 - 3DTV-Conference: The True Vision -Capture, Transmission and Display of 3D Video (3DTV-CON), 2018, pp. 1–4.
4. Christoph Fehn,Depth-image-based rendering (DIBR), compression, and transmission for anew approach on 3D-TV, Stereoscopic Displays and Virtual Reality Systems XI (Mark T. Bo-las, Andrew J. Woods, John O. Merritt, and Stephen A. Benton, eds.), vol. 5291, InternationalSociety for Optics and Photonics, SPIE, 2004, pp. 93 – 104.
5. M. Levoy,Light fields and computational imaging, Computer39(2006), no. 8, 46–55.
6. Y. Li, L. Claesen, K. Huang, and M. Zhao,A real-time high-quality complete system fordepth image-based rendering on fpga, IEEE Transactions on Circuits and Systems for VideoTechnology29(2019), no. 4, 1179–1193.
7. Dani Lischinski and Ari Rappoport,Image-based rendering for non-diffuse synthetic scenes,Rendering Techniques ’98 (Vienna) (George Drettakis and Nelson Max, eds.), Springer Vienna,1998, pp. 301–314.
8. G. Luo, Y. Zhu, Z. Weng, and Z. Li,A disocclusion inpainting framework for depth-basedview synthesis, IEEE Transactions on Pattern Analysis and Machine Intelligence42(2020),no. 6, 1289–1302.
9. MPEG,Reference view synthesizer(rvs) manual, 2018.
10.,Test model 2 for immersive video (tmiv) manual, 2019.
11. Q. H. Nguyen, M. N. Do, and S. J. Patel,Depth image-based rendering with low resolutiondepth, 2009 16th IEEE International Conference on Image Processing (ICIP), 2009, pp. 553–556.
12. Nvidia,Nvidia ai inpainting, 2018.
13. Jens Ogniewski,High-Quality Real-Time Depth-Image-Based-Rendering, Link ̈oping Elec-tronic Conference Proceedings, vol. 143, Link ̈oping University Electronic Press, 2017, pp. 1–8.
14. Ryan S. Overbeck, Daniel Erickson, Daniel Evangelakos, Matt Pharr, and Paul Debevec,Asystem for acquiring, processing, and rendering panoramic light field stills for virtual reality,ACM Trans. Graph.37(2018), no. 6.
15. Sudipta N. Sinha, Johannes Kopf, Michael Goesele, Daniel Scharstein, and Richard Szeliski,Image-based rendering for scenes with reflections, ACM Trans. Graph.31(2012), no. 4.
16. N. Sloane,The sphere packing problem, Documenta Mathematika, Vol. III (1998) (1998),387–396.