Online-Abo
  • Login
  • Registrieren
Games World
  • Dinos, Orks und Jedi-Ritter in VR: Aliasing ist wirklich schlecht für das Spielerlebnis
    Quelle: PC Games Hardware

    Dinos, Orks und Jedi-Ritter in VR: Aliasing ist wirklich schlecht für das Spielerlebnis

    Auf der diesjährigen GTC ließ sich das ILM Experience Lab hinter die Kulissen blicken und verriet, mit welchen Tricks es Kinoabenteuer für kleine und große VR-Systeme umsetzt.

    Das im letzten Jahr gegründete ILM Experience Lab sorgte auf der Game Developers Conference 2016 mit der VR-Erfahrung "Trials on Tatooine" für Aufsehen. Dabei war das bei Weitem nicht das erste Projekt des Labors, wie Lutz Latta, Principle Engineer bei Lucas Film, auf der GTC 2016 in San Jose berichtete. Zum Kinostart von "Star Wars 7: The Force Awakens" arbeitete er mit seinen Kollegen am gleichnamigen 360-Grad-Video für Facebook, das bislang über sieben Millionen Mal abgerufen wurde. Für das Gear VR entstand ein "Jurassic World"-Abenteuer, für Legendary Pictures das 360-Grad-Video "WarCraft: Skies of Azeroth".

    Es wird interaktiv

    ILM Experience Lab: Lutz Latta, Principle Engineer bei LucasFilm ILM Experience Lab: Lutz Latta, Principle Engineer bei LucasFilm Quelle: PC Games Hardware Mit Interaktivität experimentierte das Team in "Star Wars: Jakku Spy": Darin verknüpfte es neun vorgerenderte Filme für eine Cardboard-App. In einer iPad-App durften Star-Wars-Fans hingegen auf einen kleinen Knopf in der Ecke des ablaufenden Filmes drücken, der daraufhin interaktiv wurde. "Damit kann man die Zeit beschleunigen oder mehrere Nebengeschichten abseits der Hauptstory auskundschaften ", erklärt Lutz Latta.

    Anschließend portierten die Designer die App in ein Oculus-Rift-VR-Headset und setzten die Spieler auf ein Speeder Bike. "Das steuert man mit Körperbewegungen - und das gefiel den Leuten so gut, dass sie die eigentliche Geschichte nicht mehr interessiert hat. Mithilfe einer AR-App kommt hingegen C3-PO zu Besuch ins eigene Wohnzimmer. Ein Schauspieler in einem anderen Raum verkörpert den auf dem Sofa sitzenden Droiden: Seine Bewegungen werden per Motion Tracking aufgenommen und dann in Echtzeit mit denen des Roboters synchronisiert und auf dem iPad wiedergegeben.

    Filmreife Datenmengen

    "Star Wars: Trials on Tatooine" war bislang das technische aufwendigste Projekt des ILMxLab. Hier nutzte es die gemeinsame Asset-Pipeline von ILM und LucasFilm, um etwa den Rasenden Falken auf die Wüstenwelt zu versetzen. "Allerdings war das Filmmodell des Falken etwas happig für die Echtzeitberechnung", sagt Lutz Labs. Das Raumschiff setzt sich immerhin aus vier Millionen Polygonen, 750 Das Filmmodell des Falken war etwas happig für die Echtzeitberechnung 8K-Texturen und 14.000 Meshes zusammen: "400 GByte an Texturen in 11 Millisekunden darstellen? Zum Glück erlaubt uns unser internes Asset-System, Objekte wie den Rasenden Falken oder auch R2-D2 herunterzuskalieren", sagt Labs. Dabei wurden die Texturen, die man in der VR-Erfahrung nicht oder nur kaum sieht, stärker komprimiert als die, die man während der ganzen Zeit vor Augen hat. "Am Ende bestand zum Beispiel der Rasende Falke aus 30 Texturen in voller Größe und zwei 'Atlas-Seiten' mit verkleinerten Ausgaben der Original-Texturen."

    Weniger Realismus ist realistischer

    Das Lichtschwert, das man auf Tatooine schwingen darf, wollten die Designer ursprünglich als komplexes 3D-Modell realisieren. "Es sollte von Nahem betrachtet so realistisch wie möglich aussehen - bis hin zum geriffelten Handgriff und der Öffnung für den Laser, in die man hineinschauen kann", sagt Lutz Labs. Doch hält man es schlagbereit etwas weiter vom Körper entfernt, kommt es insbesondere am Griff zu Aliasing ist wirklich schlecht für die (VR-)Erfahrung Aliasing-Effekten. Die Lösung der Entwickler: Der geriffelte Griff wird jetzt mit Hilfe einer Normal Map dargestellt. "Das verstößt zwar gegen die Regeln, dass man in VR alles so realistisch wie möglich modellieren sollte, doch Aliasing ist wirklich schlecht für die Erfahrung", begründet Labs diese Entscheidung. Auch die Bewegung beziehungsweise der Motion-Blur-"Nachzieh-Effekt" des Lichtschwerts hat mit der Wirklichkeit nicht viel zu tun. "Nach sechs Filmen weiß jeder, wie ein Lichtschwert aussieht und nachleuchtet", sagt Labs. "Aber das ist physikalisch inkorrekt und sah korrekt simuliert anders als auf der Leinwand aus. Also haben wir ein Feature in die Engine eingebaut, das die Geometrie des bewegten Lichtschwerts in die erwartete Form bringt."

    00:48
    Star Wars: Trials on Tatooine - "Gameplay"-Video

    Jede Millisekunde zählt

    Was die Hardware-Seite der Tatooine-Erfahrung angeht, setzt das ILMxLab konsequent auf eine Multi-GPU-Lösung. "Unser Ziel ist, herkömmlichen Videospielen ein paar Jahre voraus zu sein", sagt Lutz Latta. "Wenn wir zuerst eine kontrollierte Hardware-Umgebung festlegen, müssen wir uns nur noch um die passende Software kümmern." Zuerst probierte das Team es mit mit vier GPUs, bei denen jede GPU einen Frame nach dem anderen berechnet. Doch die Latenz, die durch dieses Alternate Frame Rendering verursacht wurde, war für eine VR-Anwendung inakzeptabel. Im nächsten Experiment probierten die Programmierer es mit manuellem Multi-GPU-Scheduling, das mit DirectX 12 möglich wurde. "Wir setzten drei GPUs auf den Großteil des Frames an, während eine vierte GPU sich um Effekte wie Blooming oder HDR-Farben des fertigen Frames kümmerte", erklärt Lutz Latta.
    Unser Ziel ist, herkömmlichen Videospielen ein paar Jahre voraus zu sein
    Doch nun bildete die PCIe-Schnittstelle den Flaschenhals, der die Ausgabe der Frames noch immer nicht schnell genug umsetzen konnte. Die derzeitige Lösung heißt VRSLI: "Wir verwenden eine eigens entwickelte Methode, die noch nicht in DirectX 12 enthalten ist, bei der je eine GPU für ein Auge zuständig ist. Damit rechnen wir die Szene in acht Millisekunden, brauchen eine Millisekunde für den Transfer, eine Millisekunde für die Effekte und haben noch immer einen Puffer von einer Millisekunde." Noch etwas schneller wird das Ganze, indem das Bild im YUV-Farbraum ausgegeben wird: "Der Transfer funktioniert dann in 0,6 Millisekunden, das Komprimieren und Dekomprimieren des Frames benötigt je 0,1 Millisekunden - wir gewinnen einen weiteren Puffer von 0,2 Millisekunden."

    ILM Experience Lab: Vortrag auf der GTC (9) ILM Experience Lab: Vortrag auf der GTC (9) Quelle: PC Games Hardware

    Sonnenlicht und Schatten

    Stichwort Spezialeffekte: Auch hier mussten die Designer tricksen. "Ursprünglich waren die beiden Sonnen von Tatooine schon hinter dem Horizont verschwunden, damit wir um die Berechnung von dynamischen Schatten herumkamen", gibt Lutz Latta zu. "Doch das sorgten für zu viel Rauschen im Vive-Display, und mit zwei GPUs hatten wir noch ein paar Reserven." Also drehte das Team die Uhr leicht zurück: Nun beide Sonnen wieder sichtbar am Firmament.

    Dynamische Schatten gibt es allerdings immer noch nicht: Weil "Trials on Tatooine" auch auf einer einzelnen GPU laufen sollte, verwenden die Entwickler jetzt sogenannte Blob Shadows. Die heißen so, weil sie in der einfachsten Stufe einen schwarzen Kreis unter einem Charakter zeichnen. Bei den Lichtquellen kommt eine Mischung aus dynamischer und in die Szene "eingebackene" Beleuchtung zum Einsatz.

    02:50
    Star Wars: Trials on Tatooine - Hintergrundvideo zum HTC-Vive-Exklusiv-"Spiel"

    Fortsetzung folgt

    Was uns nach "Star Wars: Trials on Tatooine" als nächstes erwartet, wollte Lutz Latta nicht verraten. Nur, dass das Team die neuesten VR-Trends und die neueste VR-Hardware im Auge behält. "Im letzten Jahr bedeutete das Google Cardboard, in diesem Jahr HTCs Vive", sagt Latta. Und zeigt zum Schluss ein Bild mit offenen Stellen im Labor - wir können uns also auf weitere, in Zukunft hoffentlich auch etwas längeren Abenteuer freuen.

      • Von Stratton PC-Selbstbauer(in)
        Mich würden Praxistests zum Inputlag mit den VR-Brillen interessieren.

        In dem heutigen Playstation VR Video von PC Games sieht es für mich so aus, als wenn die Latenz ziemlich groß wäre.
      • Von PCGH_Thilo Graue Eminenz
        Zitat von Stueppi
        "Erfahrung"... bitte BITTE übersetzt es mit Erlebnis.
        Spielerlebnis und nicht Spielerfahrung, bitte.
        Ja, das kann man machen, danke für den Hinweis.
      • Von Stueppi BIOS-Overclocker(in)
        "Erfahrung"... bitte BITTE übersetzt es mit Erlebnis.
        Spielerlebnis und nicht Spielerfahrung, bitte.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1191646
HTC Vive
Dinos, Orks und Jedi-Ritter in VR: Aliasing ist wirklich schlecht für das Spielerlebnis
Auf der diesjährigen GTC ließ sich das ILM Experience Lab hinter die Kulissen blicken und verriet, mit welchen Tricks es Kinoabenteuer für kleine und große VR-Systeme umsetzt.
http://www.pcgameshardware.de/HTC-Vive-Hardware-261074/Specials/VR-Aliasing-1191646/
08.04.2016
http://www.pcgameshardware.de/screenshots/medium/2016/04/Star-Wars-Trials-on-Tatooine-1-pcgh_b2teaser_169.png
specials