Online-Abo
  • Login
  • Registrieren
Games World
  • Hellblade mit UE4-Technik: Dank Echtzeit-Motion-Capturing eine der Grafikreferenzen 2016?

    Zeit für die nächste Revolution in der Spieleentwicklung: Performance-Motion Capture in Echtzeit. Eine Technologie, die Mimik, Gestik und Bewegungen der Schauspieler/-innen live in der Unreal Engine 4 rendert. Eines der ersten Spiele dafür heißt Hellblade: Senua's Sacrifice spielt in Helheim, dem Todesreich der Wikinger, und kommt vom Team, das Ihnen Enslaved und Heavenly Sword gebracht hat. Von Benjamin Kratsch / Ryan Southardt

    Zunächst ist da das ewige Meer, umspielt von religiösen Chorälen. Doch dann fängt die Kamera ein havariertes Wikingerschiff am Strand ein und zoomt durch den See des Todes. Leichen pflastern den Sand, Blut vermischt sich mit dem Schlamm an Land. Die Kamera nimmt uns mit auf eine Reise durch eines der Wracks und endet bei einer Frau, die vor einem Baum steht. Von dem baumeln die gepeinigten Leiber von Männern und Frauen, überzogen mit Schnitten und Wunden. Hellblade: Senua's Sacrifice baut eine Atmosphäre auf, vergleichbar mit The Witcher 3. Die Kamera zoomt auf die Protagonistin, die die Leiden all dieser Menschen in ihrem Kopf durchlebt, bevor sie starben. "Sie kommen, oh mein Gott, sie kommen", schreit eine Frau, der verzerrte Schrei eines Mannes durchhallt den Raum. Seherin Senua durchlebt, wie er von einem Pfeil durchbohrt wird und stirbt. Die Protagonistin leidet sichtlich darunter, bricht auf dem Boden zusammen, quält sich mit den Stimmen der Leidenden an diesem Baum.

    Senua durchstreift gerade die Landen von Helheim, die Welt der nordischen Totengöttin Hel. Entsprechend mystisch geht es zu, mutierte Pferde mit zwei Köpfen zeigen sich, denen die Haut abblättert und bereits das Fleisch durchscheint. Gestalten, wie sie Ihnen auch in Dark Souls 3 begegnen könnten. Die Welt hat etwas Faszinierendes und die schauspielerische Leistung ist exzellent. Doch nicht nur das hat sich in unser Hirn gebrannt, sondern die Schauspielerin auf der Bühne des ehrwürdigen Moscone Centers, die all diese Mimik, Gestik und Bewegungen von Senua vor unseren Augen vorführt. Und während sie das tut, wird alles direkt und in Echtzeit in der Unreal Engine 4 gerendert.

    02:40
    Hellblade: Heldin Senua im neuen Cinematic-Trailer

    Die nächste UE4-Generation: Real-Time-Performance-Motion-Capturing

    Full-Performance-Motion-Capturing wurde in Hollywood von James Camerons Avatar Team entwickelt und hat die gesamte Gamesbranche revolutioniert. Egal ob die subtile Mimik von Ellen Page in Beyond: Two Souls, das schmerzverzerrte Gesicht von Kiefer Sutherland in Metal Gear Solid 5: The Phantom Pain oder die emotionalen Szenen mit Game of Thrones-Star Aiden Gillen (Littlefinger) und Sean Ashmore in Epic und Ninja Theory entwickeln einen neuen Ansatz, der Spieleentwicklung massiv schneller machen könnte. Quantum Break, all das wurde durch diese Technologie ermöglicht. Doch aktuell werden lediglich die Bewegungen der Lippen, des Augenlieds, der Aufschlag der Wimpern und das Spiel der Knochenmuskeln auf 3D-Gittermodelle übertragen, die hinterher aufwendig modelliert werden müssen. Epic Games, die mittlerweile nur noch kleine Projekte wie Paragon anfassen und sich ganz der Technologieentwicklung verschrieben haben, und Hellblade-Entwickler Ninja Theory, die Ihnen beispielsweise das großartig geschriebene Enslaved oder auch Heavenly Sword gebracht haben, entwickeln gerade einen völlig neuen Ansatz, der Spieleentwicklung massiv schneller machen und die Gesichter noch realistischer erscheinen lassen könnte.

    Um zu beweisen, dass die Szene wirklich in Echtzeit gerendert wurde, sprach Ninja Theorys Chief Creative Ninja Tameen Antoniades direkt mit der Schauspielerin und ließ auch die anwesenden Entwickler und Journalisten mit ihr interagieren. "Das erste Mal, als ich wirklich eine Unterhaltung mit unserer Schauspielerin Melina geführt habe, fühlte sich das schon ein bisschen magisch an", schwärmt Antoniades. Die neue Technik gibt Entwicklungsteams ganz neue Möglichkeiten der Effizienz, weil Sie ein Charaktermodell voll ausgerendert in einer Welt interagieren lassen können, die sich durch Schieberegler und Engine-Parameter verändern lässt. Ein Kollege von Ninja Theorys Chef lässt den Baum, über den wir im Intro sprachen, plötzlich im Flammen aufgehen. Wenn er jetzt noch die Lichteinstrahlung entsprechend auf den Charakter ausrichtet, berechnet die Engine direkt die Schatten und wie sich das Feuer in der Retina von Senua spiegelt. Laut Epics Chief Technology Officer Kim Libreri wurde dafür "ganz normale Konsumer-Hardware" verwendet, in diesem Fall ein System mit GTX Titan X im Quad-SLI . Also nicht gerade ein PC von der Stange, aber durchaus einer, der in vielen Entwicklerstudios zu finden ist.

    Ein Kopf-Scanner, der Faltenstruktur und Blutfluss berücksichtigt

    Es ist spannend zu sehen, wie sich Epic gerade wandelt. Sie haben zwar Gears of War verloren, dafür aber deutlich mehr Zeit und Ressourcen, um die Entwicklung von kleineren Spielen wie Unreal Tournament oder Paragon (wir haben es bereits gespielt) mit dem Vorantreiben der UE4 zu verknüpfen. Für das MOBA experimentierte man ohnehin mit einem neuen Subsurface-Shading-Modell für die Haut, neuen Haar- und Eye-Shading-Tools. Epic fehlte es allerdings an einem Facial-Rig für einen Gesichts-3D-Scan. Wie der Zufall es so will, traf Technikchef Libreri in London auf einer Konferenz Antoniades, der erzählte ihm von der fantastischen Zusammenarbeit mit einer Firma namens 3Lateral und Epics CTO erinnerte sich daran, wie sein Team für die Kite-Demo mit dem Namen "A Body and his Kite: An Animated Short" der letzten GDC im Jahr 2015 mit genau diesem Team zusammengearbeitet hat. 3Lateral zeichnete auch für die lebensnahen Gesichter in Ryse: Son of Rome und Grand Theft Auto 5 verantwortlich.
    3Lateral ist aktuell einer der wenigen Spezialisten, die über einen 3D-Kopf-Scanner verfügen.

    Zusammen flog man also nach Serbien und fing mit den Planungen für die Demo auf der GDC 2016 an. 3Lateral ist aktuell einer der wenigen Spezialisten, die über einen 3D-Kopf-Scanner verfügen, der nicht nur Falten und Struktur der Wangenknochen berücksichtigt, sondern sogar den Fluss des Blutes, der ja die unterschiedliche Farbtemperatur unseres Gesichts beeinflusst. "Sie sind eine der wenigen Firmen in der Branche, die einen voll digitalisierten Menschen erschaffen können", erklärt der Chef von Ninja Theory. Hellblade entpuppte sich dabei als besondere Herausforderung, weil die Protagonistin blaue Kriegsfarbe trägt. "Früher hätte man einfach einen Layer auf die Haut aufgetragen, heute bemalen wir unsere Schauspielerin mit einer Farbe, die so aussieht, wie sie früher die Wikinger aus natürlichen Rohstoffen herstellten. Das ist die einzige Möglichkeit, um den natürlichen Verlauf auf den Poren der Haut zu reproduzieren." Denn die ist ja nicht völlig glatt und gleich an jeder Stelle, sondern rau, ein bisschen faltiger um die Augenpartie respektive mit feinen Härchen an den Wangen.

    Skalierbare Cloud für die Berechnung der Wangenknochen beim Schreien

    3Lateral musste auf der GDC aber noch eine weitere große Herausforderung lösen: Das Streaming der Daten vom 3D-Rig sowie dem Gesichtsscanner, trotz hunderter Smartphones im Raum, die ebenfalls funken. 3Lateral, Epic und Ninja Theory haben dafür eine skalierbare Cloud-Infrastruktur eingerichtet, die die Berechnung des Trackings von Knochenbewegungen und Animated Maps sehr schnell vollzieht. Besonders Performance-lastig sind dabei die sogenannten Blendshapes, die für den sauberen Übergang von Gesichtsanimationen sorgen und in Hellblade für einen beeindruckenden Grad an Fotorealismus sorgen. Wenn Senua ihre innere Stimme, ihren Dämon, der eine Art Depression oder Angststörung symbolisieren soll, anschreit, dann ziehen sich dabei ihre Nasenflügel zusammen, die Haut auf der Nase der Schauspielerin zieht tiefe Furchen, die sich sogleich und ohne spürbare Verzögerung auf das Spiel auswirkt. Hört sie auf zu schreien, glätten sich die Nasenflügel aber nicht sofort, sondern ein Blendshape sorgt für einen weichen Übergang, quasi ein langsames Zurückgehen der Falten. Auch werden subtilste Veränderungen des Halses direkt umgesetzt, die Ihnen sonst vielleicht gar nicht so auffallen würden. Wenn Senua schreit, tritt ihr Kehlkopf hervor, die Haut darum verhärtet sich.
    Hellblade könnte 2016 eine der neuen Grafikreferenzen für den PC stellen.

    Wird sie zudem von schräg oben gefilmt und schreit, drückt dabei ihre Zunge gegen die Zähne, wellt sich leicht auf und bildet eine Art Furche in der Mitte, während sich der Kiefer ausbreitet. Menschliche Züge, die nur mit enormem Aufwand per Hand gezeichnet und animiert werden könnten. Unmöglich für ein Indie-Team wie Ninja Theory, die laut Antoniades mit nur 16 Mitarbeitern ohne Real-Time-Performance-Capturing gar nicht ein Spiel von der visuellen Präsenz eines Hellblade entwickeln könnten. Ein beeindruckendes Werk, das noch 2016 erscheinen soll und eine der neuen Grafikreferenzen für den PC stellen könnte. Wer mehr Videos und Entwicklertagebücher sehen will, klickt hier.

    Werbefrei auf PCGH.de und im Forum surfen - jetzt informieren.
    06:42
    Hellblade: Neues Video mit Gameplay-Szenen
      • Von CryPosthuman Schraubenverwechsler(in)
        Ganz abseits der Grafik, und das hab ich an verschiedenen Orten schon geschrieben, finde ich tatsächlich das Audio am beeindruckensten!

        Binaural Audio ist in der Form ebenso neu im Videospielbereich - bzw. dass das Audio so in die Umgebung eingearbeitet wird.
        Wie man schon an den Stimmen im Senua Trailer hören kann, wird das Audio sehr speziell auf die Szene produziert. Der Prozess von Binauralem Audio und deren Aufnahmen sind eine heikle Sache, wenn sie später im Spiel korrekt sein soll!
        Da finde ich es fast noch interessanter, was akustisch geschiet, als grafisch. Die Kombination aus Senua als Charakter + dem binauralem Audio ist aber der Hammer!
        Ich glaube, da ist es auch nicht so übermäßig wichtig, wie High-End, oder eben nicht High-End die Umgebung rein grafik-technisch ist. Denn die wird, denke ich, nicht wirklich neue Maßstäbe setzten.
      • Von CryPosthuman Schraubenverwechsler(in)
        Zitat von rabe08
        hm, bei ECHTZEIT-Motion-Capturing hatte ich vor meinem inneren Auge gesehen, wie Schauspieler, während ich Spiele, die Bildschirmcharaktäre animieren. Also, wo steckt jetzt das ECHTZEIT? Ich denke nicht im Motion-Capturing.


        Ich will mal nicht so sein und es dir erklären.
        Normalerweise oder der herkömmliche Weg Mo-Cap zu machen sieht wie folgt aus:
        Der Schauspieler überträgt mit dem Mo-Cap Suit die Daten seiner Bewegungen an den Rechner, dort werden diese analysiert und in einem Mo-Cap Programm gespeichert. Dann werden die Daten aus dem Programm z.B. in Modell und Animationsprogrammen "clean" gemacht, d.h. die Bewegungsabläufe werden verfeinert. Ungenauigkeiten im Capturing werden ausgebessert usw.
        Dann, wenn die Animation sauber ist, wird sie erst in die Spielengine importiert und dort ins Spiel gebracht.
        Ninja Theorie hat es geschaft, direkt von Schritt 1, dem Mo-Cap Suit in die Engine zu streamen und dort mit höchster Präzession die Bewegungen direkt (REALTIME) aufzuzeichnen!
      • Von CryPosthuman Schraubenverwechsler(in)
        Zitat von Frittenkalle
        Sieht aus wie ein UE 3.5 Game aus, also aktuell gut, aber nicht beeindruckend. Ja in der Tat, Ryse macht auf mich ein optisch besseren Eindruck.
        Ich denke, dass bei Hellblade es sehr aufs Detail von Senua und ihrer direkten Umgebung ankommt und nicht, wie bei Ryse, ein rundum Grafikepos. In der Gesamtheit würde ich dir zustimmen, aber wenn man allein sich Senuas Gesicht anschaut, hat Hellblade leicht die Nase von - wobei Marius aus Ryse schon extrem gut aussieht!
      • Von CryPosthuman Schraubenverwechsler(in)
        Zitat von idge
        Schön, das sich die Entwickler mit mehrfach SLI Motion Capture betreiben können. Freut mich für sie. Als Spieler ist man aber gekniffen, diese wundersame Engine noch nichtmal mit 2 Karten klar kommt?


        Das Quad SLI ist nur für das Aufnehmen der in Real-Time vorliegenden Mo-Cap Daten von nöten. Das wiedergeben (also letztlich das, was die Rechner des Spielers mache) ist so wie bei jeder stinknormalen Animation.
        Da braucht man nichtmal zwei GPUs zu, da reicht Mittelklasse!
      • Von Laggy.NET BIOS-Overclocker(in)
        So ne Grafik wär schonmal was feines. Das sieht aus wie die Blizzard Rendertrailer.

        Wenn dieser CGI Typische Stil erreicht ist, dann wär ich erstmal zufrieden, denn das ganze sieht einfach absolut "rund" und stimmig aus, ähnlich wie Pixelgrafik oder Cell Shading.
        Das hat einfach was vollkommenes, nicht so wie die Grafik der letzten Jahre, wo man selbst zum release des neuesten Grafikkrachers sofort erkennt, dass es typische comutergrafik ist, der es an allen ecken und enden an "irgendwas" fehlt. Schwer zu beschreiben, aber die UE4 macht hier meiner Meinung nach einen gewaltigen Sprung nach vorne. Alles wirkt in sich stimmig und absolut natürlich, selbst wenn es nicht Fotorealistisch ist.

        EDIT: Natürlich meine ich den Live Capture bzw. Cinematic Trailer der mit dem Quad SLI gerendert wurde. Das Gameplay ist davon noch um Welten entfernt.
        Mit einer PS5 oder Xbox Next dürfte das ganze dann aber vielleicht schon möglich sein.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1191244
Hellblade: Senua's Sacrifice
Hellblade mit UE4-Technik: Dank Echtzeit-Motion-Capturing eine der Grafikreferenzen 2016?
Zeit für die nächste Revolution in der Spieleentwicklung: Performance-Motion Capture in Echtzeit. Eine Technologie, die Mimik, Gestik und Bewegungen der Schauspieler/-innen live in der Unreal Engine 4 rendert. Eines der ersten Spiele dafür heißt Hellblade: Senua's Sacrifice spielt in Helheim, dem Todesreich der Wikinger, und kommt vom Team, das Ihnen Enslaved und Heavenly Sword gebracht hat. Von Benjamin Kratsch / Ryan Southardt
http://www.pcgameshardware.de/Hellblade-Senuas-Sacrifice-Spiel-56843/Specials/GDC-Bericht-Unreal-Engine-4-1191244/
10.04.2016
http://www.pcgameshardware.de/screenshots/medium/2016/04/Hellblade_Aufmacher_01-pcgh_b2teaser_169.jpg
specials