Online-Abo
  • Login
  • Registrieren
Games World
      • Von mannefix Software-Overclocker(in)
        Mmh, ist er stolz darauf, dass seine Kinder mal von der 3,5 GByte Lüge erfahren werden? War gar nicht nötig.
        Und - warum hat er nur einen halben Taucheranzug an.

        Naja, insgesamt brauchbare Arbeit NVidia.
      • Von MfDoom BIOS-Overclocker(in)
        Zitat von Laggy.NET


        Weiß nicht, aber so eine "Verarsche" könnte man durchaus mal mit ein paar kritischen Worten in der Presse Publik machen, vielleicht geben sie sich dann auch mal mühe, die Effekte ordentlich zu integrieren.
        Ich denke daß Nvidia so viele Anzeigen bei der Presse schaltet das solcherart kritische Artikel eher nicht erscheinen
      • Von Pleasedontkillme PC-Selbstbauer(in)
        Ich würde gerne diese Presentation als Informationsquelle annehmen aber das ewige gejaule und gejuble geht mir langsam echt auf den Zeiger!!

        Was ist schon dabei wenn die drei Spiele mit der 1080GTX betrieben werden, Grund zur Euphorie??
        Auf meiner laufen die auch mit einer 320euro Karte (gekauft letzten Oktober15), The Devision bei etwa 45-60Fps mit alles max ausser NV`s PCSS.

        Würde sagen Hosen runter und TombRaider mit DX12 laufen lassen!!!? ...heee kein Muht was!?

        Was ist das eigentlich für eine Forumsdiskusion, G-Sync ist hier garnicht das Thema.

        ps: habe gerade die HBAO+ Bilder bestaunt und muss den Mist sofort ausschalten bei mir!
        Danke euch.
      • Von Laggy.NET BIOS-Overclocker(in)
        Zitat von PCGH_Phil
        Das ist ganz normal und auch bei Freesync so eine Sache - ich spüre das auch sehr deutlich beim Spielen.
        Gsync und Freesync kommen zwar der Bildqualität zugute, weil sie Tearing eliminieren und einige Ruckler vermeiden - aufgrund der Quasi-Synchronisation zwischen (Maus-)Eingabe und Bildausgabe beziehungsweise Auge <-> Hand bemerkt man aber (schwankenden) Inputlag - und meines Erachtens wesentlich stärker als bei einem Standard-Display. Unter 50 Fps komme ich eigentlich gar nicht klar, das fühlt sich extrem teigig an. Da tut sich halt eine Diskrepanz auf: Wenn ich die Hand bzw. die Maus bewege, dauert es (bei 50 Fps) zumindest 20 ms, bis auch das Bild auf dem Schrim reagiert. Darüber wird's deulich besser, aber wehe, die Bildraten schwanken stark oder fallen beispielsweise von 60 auf 40 - Letzteres ist wirklich schon extrem deutlich zu spüren und wie nonamez78 so bildlich beschrieben hat, es fühlt sich an, als würde man bei Mausbewegungen gegen ein Gummiband arbeiten.

        Am liebsten hab ich um die 90 Fps oder mehr (das ist leider oft utopisch), da ist für mich kaum noch Verzögerung zu spüren (bei 90 Fps ~ 11 ms) - und mit der Synchronisation ist dann auch das Bild schön sauber. Aber gegen stark schwankende oder niedrige Bildraten hilft weder Gsync noch Freesync wirklich. Und Probleme wie Microstuttering oder vereinzelte Hänger sind auch viel deutlicher wahrzunehmen. Beide sind (zumindest aus meiner Sicht) keine Wundermittel gegen niedrige Bildraten... ich persönlich favorisiere seit ich ein Freesync-Display habe sogar höhere Frameraten als bisher.

        Es ist sicher Sache der persönlichen Wahrnehmung, aber ich kann mit niedrigen Bildraten (<50 Fps) einfach nicht spielen. Ich hab mich da allerdings auch durch den Job sensibilisiert... Und dafür würde ich auch ordentlich in eine neue Grafikkarte investieren, Details und höhere Auflösungen wären für mich eher nebensächlich... Aber 1440p @ 90 Fps mit ordentlichen Details wären mir definitiv einen Batzen Geld wert Meine R9 290X packt das nicht mehr wirklich befriedigend...

        Wenn du ein stabiles Lock inklusive (korrekt greifendem) Vsync hinbekommst, brauchst du dafür kein Gsync oder Freesync - solange die Bildraten nicht abfallen (dann entsteht Tearing) ist das Spielgefühl mit Gsync oder Freesync genau das gleiche...

        Gruß,
        Phil
        Vielen Dank für den Eindruck. Das ist gerade irgendwie eine erleuchtende Erkenntnis, obwohl sie auch absolut logisch ist.

        Tatsächlich nimmt mir das gerade das ständige Verlangen, einen G-Sync Monitor zu kaufen bzw. haben zu wollen.
        Grundsätzllich reichen mir ja 60 FPS vollkommen, da ich lieber in Bildqualität investiere. Aber so unlocked 50-70 FPS wären schon nett gewesen, vor allem, weil man nicht so penibel drauf achten muss, die 60 FPS @ 60 Hz zu halten (sonst hat man ja auf nem normalen Display Microruckler bei aktivem Vsync).
        Wenn das aber bedeutet, dass bei wechselnden FPS auch der Inputlag so deutlich spürbar wechselt, dann erfüllt G-Sync/Freesync indirekt doch nicht das, was ich mir davon erhofft hatte.

        Man geht halt grundsätzlich davon aus, dass es mit so nem Monitor weitestgehend egal ist, wenn die Framerate mal auf 40 einsackt. Wenn dann aber im gleichen Zug ein Problem deutlich wird, mit dem man offensichtlich nicht sofort rechnet, dann sind solche Monitore in der Tat nicht die Lösung für schwankende Framerates. Trotz Adaptive Sync bevorzugt man also konstante Framerates, was für mich den Sinn eines solchen Monitors etwas verfehlt.

        Wenn ich so drüber nachdenke, sehe in der Praxis keinen großen Vorteil für mich. Wenn ich die Framerate mit einem Adaptive Sync Monitor sowieso locken muss, dann kann ich meinen jetzigen auch gleich behalten. Dann spiel ich eben mit konstant 60 FPS @ Vsync und hab genau das selbe Spielerlebnis, das man auch mit einem Adaptive Sync Monitor bevorzugen würde. Das Feature ist zwar für einen Neukauf Nice to have, aber ein absolutes Must have scheint es dann ja doch nicht unbedingt zu sein.

        Ein Vorteil dürfte aber mit Sicherheit bestand haben. Und zwar der grundsätzliche Input Lag. Soweit ich weiß sollte der Inputlag mit Adaptive Sync z.B. bei 60 FPS genauso niedrig sein, wie mit Vsync Off.

        Zitat von FortuneHunter
        In der Tat .... ich war noch mal an der Stelle und hier das Ergebnis:

        Wie man deutlich sehen kann ist das Bild ohne Gameworks wesentlich harmonischer und stimmiger.
        Jo, man siehts auch ganz rechts am blauen Briefkasten nochmal besonders gut. Mit HBAO fehlen die schatten unterm Briefkasten komplett. Mit Spielinternem AO wird der gesamte Boden sauber verschattet.

        Weiß nicht, aber so eine "Verarsche" könnte man durchaus mal mit ein paar kritischen Worten in der Presse Publik machen, vielleicht geben sie sich dann auch mal mühe, die Effekte ordentlich zu integrieren. Bei Tomb Raider wars anfangs auch so, dass HBAO+ nicht richtig implementiert war. Auf mittlere Entfernung fehlte das AO komplett, wodurch das Spielinterne AO zwar in der Nähe nicht so detailliert war, auf die Entfernung und im Gesamtbild aber deutlich besser aussah. Mittlerweile wurde das aber gepatcht.

        Ich finds halt mühsam, dass man bei diesem Gameworks Mist erstmal screenshot Vergleiche erstellen muss, um sicher zu gehen, dass nicht plötzlich ein paar Grafikeffekte fehlen.

        Da fällt mir ein, bei Witcher 3 hab ich die beiden Ambient Occlusion Modi auch nocht nicht überprüft...
      • Von FortuneHunter BIOS-Overclocker(in)
        Zitat von Laggy.NET
        Ich finds ja lustig, dass das Spiel mit maximalen Details schlechter aussieht, als mit dem Ultra preset. Schau mal im vorletzten Bild rechts unterm weißen Auto.
        Da fehlt unterm Auto die Verschattung bzw. Umgebungsverdeckung. der hintere Reifen sieht fast aus, als würde er schweben. Auch der hinteste Reifen links im Bild am Randstein wird nicht richtig verschattet und schwebt in der Luft.
        HBAO+ deaktivieren und die Schatten unter den Autos sind wieder da.
        Zudem fehlen mit HBAO+ sehr viele kleine Details und Dreck im Schnee, der mit der originalen Umgebungsverdeckung vorhanden ist. Mit HBAO+ wirkt der Schnee sehr matschig.

        Hab deswegen HBAO+ auch deaktiviert. Damit wirkt das Spiel stellenweise, als würde man mit low Details spielen. Typische verschlimmbesserung.

        Ich finds traurig, dass diese "tollen" features nicht vernünftig ans Spiel angepasst werden. Hauptsache die Leute haben irgend etwas, was sie hinzuschalten können. Ob das nun wirklich besser aussieht interessiert ja keinen.

        Da market man halt den unterschied. Die spielinternen Features sind von Grafikdesignern und Entwicklern für das Spiel gemacht worden und sehen so aus, wie sie sollen. Die Gameworks effekte werden dann vermutlich nur noch von einem Entwickler ins Spielverzeichnis geschmissen und mit dem Optionsmenü verknüpft und fertig ist der Gameworkssupport.
        Ich wette, wenn man einen PS4 screenshot von exakt der selben Stelle daneben legt, wird dieser auf den ersten Blick besser aussehen.
        In der Tat .... ich war noch mal an der Stelle und hier das Ergebnis:

        Alles auf den höchsten Einstellungen (Gameworkseffekte aktiv):
        [Ins Forum, um diesen Inhalt zu sehen]

        Und hier das ganze auf Stufe Ultra (Gameworkseffekte deaktiviert):
        [Ins Forum, um diesen Inhalt zu sehen]

        Wie man deutlich sehen kann ist das Bild ohne Gameworks wesentlich harmonischer und stimmiger.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
video
1194704
Nvidia Pascal
GTX 1080 im Video: 60 Fps und Max Quality in The Division, Rise of the Tomb Raider und Mirror's Edge Catalyst
Im Livestream zur Vorstellung der Pascal-Gaming-Grafikkarten GTX 1080 und GTX 1070 hat Nvidia auch einige Spielszenen gezeigt. Nvidia-Chef Huang zeigte unter anderem The Division, Rise of the Tomb Raider (mutmaßlich mit Direct3D-12-Renderpfad) und Mirror's Edge Catalyst. Im Anschluss an die Spielszenen, die alle in "maximaler Qualität und 60 Fps liefen", sagte Huang, dass sie von einer Geforce GTX 1080 berechnet wurden.
http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/Videos/GTX-1080-The-Division-1194704/
08.05.2016
http://www.pcgameshardware.de/screenshots/medium/2016/05/vlcsnap-2016-05-08-11h19m17s245_b2teaser_169.jpg
videos
http://vcdn.computec.de/ct/2016/5/69159_sd.mp4