Online-Abo
Games World
  • Hitman (2016) Beta im Benchmark-Test: Killer mit großem Hunger auf Grafikspeicher

    Hitman im Benchmark-Test - Codename 47 ist zurück: PC Games Hardware hat den lautlosen Killer vor seinem offiziellen Missionsantritt am 11. März begleitet, um Ihnen erste Technikeindrücke zu liefern. Die Basis dafür bildet eine geschlossene Beta-Version des schlicht "Hitman" genannten Reboots. Direct X 12 suchten wir vergeblich - an seiner statt fanden wir jedoch ansehnliche Grafik mit großem Speicherbedarf.

    Seit 15 Jahren schickt die Spieleschmiede IO Interactive ihren glatzköpfigen Auftragskiller auf die Jagd. Nach Hitman: Absolution, das Ende 2012 erschien, ist es nun an der Zeit für einen Neuanfang: Hitman, so der schlichte Name im Stile von Tomb Raider und anderen Reboots, soll sich stärker an den Anfängen der Serie orientieren - weniger Linearität steht ganz oben auf der Agenda. Ob sich das lange Warten gelohnt hat, werden wir ab dem 11. März erfahren, wenn das erste Episodenpaket von Hitman "2016" erscheint. Zum Launch gibt's für 15 Euro die Mission in Paris sowie den Prolog, der in einem Ausbildungsbunker der ICA spielt. Missionen in Italien, Marokko, den USA und Japan folgen.

    An dieser Stelle und gute drei Wochen vor dem Launch werfen wir einen Blick unter die Haube und auf die Grafik des neuesten Hitman-Spiels. Die Basis dafür bildet eine Beta-Version von Hitman, die uns zu Testzwecken zur Verfügung gestellt wurde. Enthalten sind zwei Missionen sowie einige Story-Schnipsel, deren Inhalt wir jedoch nicht ausplaudern möchten - wo bliebe da der Spaß? So viel vorweg: Verkleidung und verdecktes Vorgehen sind nicht nur empfehlenswert, sondern der Schlüssel zum Erfolg. Denn wurde Agent 47 erst einmal entdeckt, fallen schnell Schüsse - und davon sind, wie im echten Leben, bereits wenige tödlich.

    Hitman Beta: Die Technik und Systemanforderungen

    In Hitman kommt nach wie vor IO Interactives Glacier-Engine zum Einsatz, welche bereits dem Vorgänger zu ansehnlicher Grafik verhalf. Selbstverständlich waren die Entwickler in der Zwischenzeit nicht untätig und haben ihren Grafikmotor verbessert. So bietet Hitman nun einen physikbasierten Renderansatz, welcher eine realistischere Darstellung von Materialeigenschaften erzielt aus herkömmliche Rendermethoden. Multisample-AA fiel dem Rotstift zum Opfer, dafür bietet die Engine nun neben FXAA auch SMAA inklusive temporaler Verrechnung. Beide Verfahren lassen sich stufenweise mit spielinternem Supersampling mittels erhöhter Renderauflösung kombinieren (Ingame-Downsampling). Interessanterweise handelt es sich bei der Engine aber offenbar nicht um die von der Glacier abgeleiteten und im kommenden Deus Ex: Mankind Divided zum Einsatz kommenden Dawn Engine. DirectX 12 ist in der Beta indes noch nicht implementiert, mit der API soll auch Async Compute Einzug erhalten, was der Performance zugute kommen könnte - Letztere ist in der Beta noch nicht vollens überzeugend.

    Laut den kürzlich veröffentlichten Systemanforderungen benötigt Hitman einen Mittelklasse-PC mit einem Intel Core i5 oder einem AMD Phenom II X4. Grafikkarten werden ab Nvidias Kepler- und AMDs GCN-Generation vorausgesetzt, wobei es sich mit der Geforce GTX 660 und HD 7870 beziehungsweise R9 270(X) um Mittelklasse-GPUs handelt. Der Arbeitsspeicher muss mindestens 8 GiByte umfassen. Empfohlen wird indes eine durchaus starke CPU, nämlich ein Core i7 ab der Ivy-Bridge-Generation beziehungsweise ein hochgetakteter Vishera-Viermoduler wie der FX-8350. Als Grafikkarte soll es eine Geforce GTX 770 oder Radeon R9 290 sein. Traditionell werden bei IO-Interactive-Titeln stärkere Radeons als Geforces genannt, obwohl es sich um Spiele aus AMDs Gaming-Evolved-Programm handelt. Die RAM-Empfehlung bleibt mit 8 GiByte unverändert.

    Die Optik macht einen guten, nicht aber überragenden Eindruck, wobei an dieser Stelle gesagt werden muss, dass die Beta alles andere als umfangreich geraten ist und der Eindruck daher nur flüchtig ausfällt. Abgesehen vom Intro, das uns ein hübsches Bergpanorama mitsamt umherwehender Schneepartikel sowie eine düstere Anlage aus Stahlbeton zeigt, bekommen wir nur zwei stark beschränkte Tutorialmissionen zu Gesicht, die nur wenig Rückschlüsse auf die Optik in den tatsächlichen Missionen bieten können. Das dort Gezeigte ist durchaus ansprechend, nicht aber übermäßig beeindruckend. Immerhin kann die Lichtstimmung gefallen, der physikbasierende Renderansatz ist gelungen, die vielfarbige, volumetrische Beleuchtung sorgt für Stimmung. Bei der hübschen und flimmerarmen Umgebungsverdeckung handelt es sich wahrscheinlich um AMDs Open-Source-Shader HDAO (High Definition Ambient Occlusion).

    Einstellung per Mausklick auswählen
    Hitman-no-SSAO-pcgh

    Hitman Beta: Grafikkarten-Benchmarks

    Die PCGH-Benchmarkszene spielt in der ersten Mission der Hitman-Beta. Nummer 47 muss sich Zugang zu einer Yacht verschaffen, auf der eine Party mit vielen Gästen stattfindet - inklusive des zu beseitigenden Missionsziels natürlich. Wir haben diesen Auftrag ausgewählt, da hier nach dem Betreten des Wassergefährts die Bildrate deutlich geringer ausfällt als bei der anderen Mission. Offenbar verursachen die Feierlustigen eine hohe Last, sodass der Benchmark folgendermaßen abläuft: Wir manövrieren den Hitman vom Startpunkt der Mission (Parkplatz) auf die Yacht und laufen dort auf die Menschenmenge zu. Die PCGH-Benchmarkszene für Hitman im Bewegtbild:

    00:32
    Hitman Beta - Die PCGH-Benchmarkszene im Video

    ... und höhere Auflösungen verwehrt. ... und höhere Auflösungen verwehrt. Quelle: PC Games Hardware Die uns vorliegende Testversion verfügt über eine Eigenheit, die den Testablauf erschwert: Verfügt die installierte Grafikkarte nicht über genügend Grafikspeicher, sperrt das Spiel die höherwertigen Texturstufen und Auflösungen jenseits von Full High Definition. So traut das Spiel in seiner jetzigen Form, als Beta mit DX11-Renderer, keiner 2-GiByte-Grafikkarte mehr als niedrige Texturdetails zu. 3-GiByte-Modelle dürfen zwar alle Grafikeinstellungen mit höchster Qualität berechnen, mehr als 1.920 × 1.080 Pixel sind aber auch hier nicht möglich (abweichende Seitenverhältnisse mit 1.920 Pixeln Breite ausgenommen, maximal möglich ist so 1.920 × 1.440). Erst Nutzer eines 4 GiByte-Modells dürfen maximale Qualität mit höheren Auflösungen inklusive WQHD und UHD kombinieren. Beachten Sie dieses Detail bei den folgenden Benchmarks.

    Grundsätzlich ist Hitman in der vorliegenden Form sehr anspruchsvoll an die Grafikkarte. Das Vorgehen bezüglich speicherarmer Grafikkarten liefert bereits einen Hinweis auf die Neigungen der Engine - reichlich Grafikspeicher zahlt sich aus.

    Hitman 2016 Beta

    Es gibt drei Auflösungen zum Auswählen! Hitman Beta Grafikkarten-Benchmarks

    • Hitman 2016 Beta GPUs
    Info Icon
    Game/Version Hitman (BETA v0.15.0; Steam), PCGH-Benchsave 'Illicit boarding'
    Details Max. possible detail; Supersampling 1.0 (= native Resolution)
    Software/Drivers Geforce 361.91 WHQL (HQ); Radeon Software Crimson 16.1.1 Feb. 3 (HQ)
    • Benchmarks (1 von 3)

    • Produkte ein-/ausblenden

    ~1.350/3.506 MHz
    67.3
    49
    ~1.050/1.000 MHz
    62.6
    44
    ~1.050/1.000 MHz
    59.9
    42
    ~1.070/3.000 MHz
    51.1
    34
    ~1.320/3.506 MHz
    48.9
    30
    ~1.010/3.000 MHz
    47.7
    33
    ~1.340/3.506 MHz
    44.1
    29
    Only 1080p possible!
    41.5
    29
    ~980/2.850 MHz
    34.5
    24
    Only 1080p possible!
    31.7
    21
    ~1.400/3.506 MHz
    29.2
    20
    Only minimum textures/1080p possible!
    24.3
    15
    Only minimum textures/1080p possible!
    21.7
    13
    0
    10
    20
    30
    40
    50
    60
    70
    Name
    1.920 × 1.080, T-SMAA/16:1 AF (Average Fps)
    Minimum Fps

    System

    Intel Core i7-6700K @ 4,5 GHz, 2 × 8 GiByte DDR4-2800, Asus Maximus VIII; Windows 10 x64

    Resultate nicht unbedingt vergleichbar mit früheren Reviews/Results not necessarily comparable with earlier reviews

    02:54
    Hitman: Making-of - So entstehen Hitman-Levels

    Da uns während den Benchmarks der hohe Bedarf an Grafikspeicher sowie ein teils heftiges Ruckeln auf einigen 4-GiByte-Modellen schon in Full HD auffiel, haben wir neben den Benchmarks auch noch einige Frametimes ausgewertet. Hier kann man besagte Stocker klar erkennen, besonders die durch ihre segmentierte Speicheranbindung gehandicapte GTX 970 fällt abermals durch Performance-Probleme auf. Hier sind die Stocker besonders stark, deutlich heftiger als bei der großen Schwester GTX 980. Die heftigsten Ausreißer kratzen in 1440p an der 200-Millisekunden-Marke, die Stocker dauern als knapp 0,2 Sekunden. Das fällt selbst unempfindlichen Spielern auf. Interessanter Weise scheint die R9 Fury mit nur 4 GiByte von Speicherstockern gefeit, wobei diese Messungen aufgrund der Beschränktheit des Areals nur kurz ausfallen und nur begrenzt Rückschlüsse auf die Performance über einen längeren Zeitraum bieten. Auffällig auch: Die Stocker beginnen erst im letzten Teil unseres Benchmarks, wenn wir uns mit dem glatzköpfigen Auftragskiller durch die Menschenmengen bewegen - nicht auszuschließen, dass es hier einen Zusammenhang gibt, der Geforce-GPUs mit 4 GiByte oder weniger betrifft und mit einem Treiberupdate aus der Welt zu schaffen wäre.

      • Von PCGH_Phil Audiophil
        Zitat von FortuneHunter
        Oh wie die Erinnerung doch alles trüben kann.

        Absolution 2012:

        [Ins Forum, um diesen Inhalt zu sehen][Ins Forum, um diesen Inhalt zu sehen]
        Hitman Beta:
        [Ins Forum, um diesen Inhalt zu sehen][Ins Forum, um diesen Inhalt zu sehen]

        Also wenn die Gesichter von der Hitman Beta so 2010 sind, dann sind die von Absolution so 2007/8.
        Physically Based vs. klassiches Deferred Rendering mit konventionellem Texturmodell... das ist sicher auch einer der Faktoren, die den Speicherverbrauch etwas explodieren lassen haben... es ist wohl kein Zufall, dass sowas erst mit der aktuellen Konsolengeneration so richtig möglich wurde und dann auf dem PC ziemlich schnell für den Untergang der "2 GiByte-reichen-für1080p-auf-Ewig!"-Denkweise gesorgt hat.... (Gibt Ausnahmen, z.B. das für die Zeit brutal gut aussehnende Remember Me mit PBR - Checkt das mal aus )

        Gruß,
        Phil
      • Von G3cko Komplett-PC-Aufrüster(in)
        Zitat von FortuneHunter

        In Wirklichkeit war der Aufpreis nicht so hoch. Im Mai des Jahres 2012 hatte ich für eine GTX670 Reference 415 € bezahlt und im November dann 527€ für die GTX680. Grund für die GTX680 waren aber in der Tat die 4 GByte Speicher und nicht die schmale Mehrleistung gegenüber der GTX670.
        Nur mal als Vergleich: Im Oktober 2012 AMD 7970 OC mit 1GHz für 330€ erstanden. Die 670 hatte damals den gleichen Preispunkt. Heute trennen die Karten "nur" 50% Performance. Das selbst die 7970 einer 4GB GTX680 davon zieht liegt nicht zuletzt an den vielen Rebrand, Nvidias Treiberpolitik und GCN samt zukünftigem DX12.

        Selbiges wird sich mit der GTX970 und AMD 390 wiederholen, nur deutlich heftiger.
      • Von FortuneHunter BIOS-Overclocker(in)
        Darum Karten "runterzumachen" geht es mir doch gar nicht.
        Ich mag meine GTX680 immer noch genauso wie die GTX980Ti und auch die GTX570 die aus Platzgründen noch in meinem Zweitrechner werkelt und auch noch für ca. 85% meiner Spielebibliothek vollkommend ausreichend ist.
        Um einen Vergleich ging es mir schon mal gar nicht, nur auf den Hinweis, dass es von seiner Karte mehr Versionen gab.

        Genauso wie dir die GTX970 noch einige Zeit reichen wird (wenn du sie nicht austauscht), reicht ihm seine GTX770 noch.
        Aus dem Grund habe ich ihn auch daran erinnert, dass man bei der GTX970 auch die Details runterstellen kann.

        Man ich weiß, dass hier laufend auf den GTX970-Besitzern grundlos eingeschlagen wird und mir als Außenstehender gefällt das genausowenig ... Deswegen gebe ich mir ja auch Mühe dem entgegenzusteuern.
        Ich bin immer noch der Meinung, dass sie vollkommend für FullHD reicht. Jahrelang habe ich mit Grafikkarten gespielt, die du nicht mal mit der Kneifzange angefasst hättest und war damit zufrieden.

        Oft lagen 3-4 Jahre zwischen den Karten und ich habe sie erst ausgetauscht, als ich aufs Minimum runterstellen musste bei neuen Titeln. Erst in den letzten Jahren habe ich öfter gewechselt, obwohl das so gar nicht nötig war.

        Und was die "100 €-Aufpreis" der GTX680 angeht ... Ich habe sie gerne gezahlt, weil ich die 4 GByte zu dem Zeitpunkt schon gebraucht habe (Skyrim Modded like Hell).
        In Wirklichkeit war der Aufpreis nicht so hoch. Im Mai des Jahres 2012 hatte ich für eine GTX670 Reference 415 € bezahlt und im November dann 527€ für die GTX680. Grund für die GTX680 waren aber in der Tat die 4 GByte Speicher und nicht die schmale Mehrleistung gegenüber der GTX670.

        Zitat von majinvegeta20
        Ich darf noch einmal erinnern:
        Es ging um den Vorwurf, das eine Karte aus dem Jahre 2014! so langsam Ermüdungserscheinungen in 1440p bei max Details aufzeigt und jene User nu zu bedauern wären, weil sie nu neue Karten besorgen müssen, um den bisherigen "Standard" halten zu können. http://extreme.pcgameshar...

        Schieberegler sind offenbar gestorben. ^^
        Davon konnten Mitte/Ende 2014 auch schon Besitzer eier GTX780(Ti) mit nur 3 GByte Speicher bei Spielen wie WatchDogs und Assassins Creed Unity ein Lied singen wenn sie in FullHD alles auf Maxed out spielen wollten. Und dass schon 1 bzw. 1/2 Jahr nach Release ... Als sie rauskamen war noch davon die Rede, dass man kaum jemals mehr als 2 GByte VRAM brauchen wird ... dann kamen die NextGen-Konsolen.
        Nur weil die Karten nicht so mit einem "Skandal" behangen waren, mussten sie nicht soviel Häme einstecken.
      • Von majinvegeta20 Lötkolbengott/-göttin
        Zitat von FortuneHunter
        Wer sagt, dass er eine 2 GByte Version hat? Die Winforce GTX770 gab es in der 2 und der 4 GByte Ausführung.
        Ich habe die Vorgängerin noch hier (MSI GTX680 TwinFrozr III) und die auch schon in der 4 GByte Ausführung. Und ich werde sie wahrscheinlich noch in den geplanten Wohnzimmer-PC verbauen ... Für Gaming mit weniger Details ist sie immer noch gut geeignet und beim Abstand TV-Couch gehen sowieso jede Menge Details verloren, so dass sie noch gut reichen dürfte. Dazu einen i5-6500, 8 GByte RAM und das Teil ist fertig für den Einsatz.
        Bis WatchDogs hat sie noch ein sehr passables Gamingerlebnis ohne große Einbußen geliefert.
        Ja, aber wieviel hat diese mehr gekostet?
        Bis zu 100 Euro Aufpreis!
        Heißt umsonst hast du die zusätzliche "verlängerte" Leistung auch nicht bekommen.

        Ansonsten kann man wirklich gleich alle Karten runter machen, wie eben z.B. die GTX 580, GTX 460 etc p.p.

        Hat sich das im Nachhinein gelohnt?
        Sicher.

        Aber die GTX 970 gibt es nu einmal nicht in einer doppelten Version.
        Trotz allem wird sie genauso mit geringeren Details in 1080p ihren Dienst zufriedenstellend vollrichten.
        Was sind das also für seltsame Vergleiche? O.o

        Ich darf noch einmal erinnern:
        Es ging um den Vorwurf, das eine Karte aus dem Jahre 2014! so langsam Ermüdungserscheinungen in 1440p bei max Details aufzeigt und jene User nu zu bedauern wären, weil sie nu neue Karten besorgen müssen, um den bisherigen "Standard" halten zu können.

        Schieberegler sind offenbar gestorben. ^^
      • Von FortuneHunter BIOS-Overclocker(in)
        Zitat von majinvegeta20

        Die GTX 970 wird nach 4 Jahren in 1080p unter reduzierten Details genauso spielbare fps leisten können.
        Du tust gerade so als ob eine GTX 770 mit 2gb seit Release länger gehalten hat, als eine GTX 970 mit 4gb (3,5 gb) im selben Zeitraum.
        Wer sagt, dass er eine 2 GByte Version hat? Die Winforce GTX770 gab es in der 2 und der 4 GByte Ausführung.
        Ich habe die Vorgängerin noch hier (MSI GTX680 TwinFrozr III) und die auch schon in der 4 GByte Ausführung. Und ich werde sie wahrscheinlich noch in den geplanten Wohnzimmer-PC verbauen ... Für Gaming mit weniger Details ist sie immer noch gut geeignet und beim Abstand TV-Couch gehen sowieso jede Menge Details verloren, so dass sie noch gut reichen dürfte. Dazu einen i5-6500, 8 GByte RAM und das Teil ist fertig für den Einsatz.
        Bis WatchDogs hat sie noch ein sehr passables Gamingerlebnis ohne große Einbußen geliefert.
  • Print / Abo
    Apps
    PC Games Hardware 09/2016 PC Games 10/2016 PC Games MMore 10/2016 play³ 10/2016 Games Aktuell 10/2016 buffed 10/2016 XBG Games 09/2016
    PCGH Magazin 09/2016 PC Games 10/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1186919
Hitman
Hitman (2016) Beta im Benchmark-Test: Killer mit großem Hunger auf Grafikspeicher
Hitman im Benchmark-Test - Codename 47 ist zurück: PC Games Hardware hat den lautlosen Killer vor seinem offiziellen Missionsantritt am 11. März begleitet, um Ihnen erste Technikeindrücke zu liefern. Die Basis dafür bildet eine geschlossene Beta-Version des schlicht "Hitman" genannten Reboots. Direct X 12 suchten wir vergeblich - an seiner statt fanden wir jedoch ansehnliche Grafik mit großem Speicherbedarf.
http://www.pcgameshardware.de/Hitman-Spiel-6333/Specials/Benchmark-1186919/
28.02.2016
http://www.pcgameshardware.de/screenshots/medium/2016/02/Hitman_06-pcgh_b2teaser_169.jpg
specials