Online-Abo
  • Login
  • Registrieren
Games World
      • Von xDave78 PC-Selbstbauer(in)
        Zitat von LinusTECH


        Als Fazit kann man (wie meistens) sagen dass man genau das bekommt wofür man bezahlt. 300€ und Xbox One entspricht qualitativ dem untersten Minimum - ist man 60Hz oder mehr am PC gewohnt, investiert man lieber mehr und hat dann auch das deutlich bessere Erlebnis. Zwischen der 30fps Fassung der Xbox One inkl. Judder, Tearing, Lag +fehlenden Effekten bei der Grafik, und der 1440p Fassung am PC inkl. 60fps+ sowie Pure Hair etc. liegen jedenfalls mindestens ein bis zwei Generationen.
        Mag schon sein, ich finde die Betrachtungsweise etwas undifferenziert. Das Spielerlebnis an einer Konsole ist ein komplett anderes, schon alleine weil man gediegen auf der Couch hockt (idR) während man am PC eher sitzt. Hinzu kommt ein Sitzabstand von mehreren Metern - bei mir zu Haus sind es 3 m- da sehe ich die meisten Unterschiede schon gar nicht mehr. Und solange es keine argen Framedrops gibt ist alles in Ordnung. Sagen wir es mal so, für die Leute die Spiele des Spielens wegen spielen, macht es keinen Unterschied. Das ist halt auch der Grund, weshalb solcherlei Videovergleiche im Prinzip nichts aussagen außer -" Hey wir sinds, Euer Obvious Mag und ratet mal was wir rausgefunden haben......!!!"
        Keine Ahnung ich hab das Game auf der XO und mir ist eigentlich die Kinnlade runtergeklappt als ich es damals gespielt habe. Sowas ist halt ideal fürs Couchzocken, finde ich. Wobei ich das dank Steamlink auch vom PC stremen könnte - mit tollerer Grafik...aber wozu...ich konnte es immerhin schon vor 3 Monaten zocken ;D
      • Von aloha84 BIOS-Overclocker(in)
        nVidias "Adaptive VSync Technology" - die wahrscheinlich interessanteste Kepler-Neuerung | 3DCenter.org

        Lese ich hier irgendwie anders raus, und entspricht auch eher meinen Erfahrungen.
      • Von LinusTECH Kabelverknoter(in)
        Zitat von aloha84
        Warum sollte durch adaptives vsync Judder und Inputlag entstehen? Das widerspricht dem Sinn eines adaptiven vsyncs.
        Adaptives V-Sync hat nur einen einzigen Zweck: Es soll das Tearing minimieren, welches komplett ohne V-Sync auftritt.
        Grob gesehen kannst du dir merken:

        Ohne V-Sync: kein Judder, kein Lag, Stottern, ABER dafür extremes Tearing, da der Bildschirm innerhalb eines Frames (16ms bei 60Hz) mehrere ausgeben kann und wird.
        Mit V-Sync: Judder möglich, kein Tearing, ABER dafür Stottern und Input-Lag, da der Bildschirm innerhalb eines Frames (16ms bei 60Hz) Frames überspringen kann.
        Adaptives V-Sync: entspricht einem partiellen V-Sync, das bedeutet es wird eine Mischung aus kein V-Sync und aktivem V-Sync durchgeführt, wodurch zwar Tearing minimiert wird, aber dafür die Nachteile von allen Eigenschaften übernommen werden. Es kann Judder, Tearing, Studder UND Input-Lag vorkommen.
        [Ins Forum, um diesen Inhalt zu sehen]

        Bei G-Sync hingegen steuert sozusagen die Grafikkarte die Hz-Zahl deines Monitors (wenn der ein entsprechendes G-Sync-Modul hat), wodurch man weder Judder, noch Studder, noch Tearing hat. Der Lag wird dadurch auf einen Bruchteil reduziert, ist aber noch vorhanden. (aber nicht spürbar)

        Ich kann nur empfehlen dass man sich zum Thema V-Sync und G-Sync folgendes Video ansieht:
        [Ins Forum, um diesen Inhalt zu sehen]
      • Von aloha84 BIOS-Overclocker(in)
        Warum sollte durch adaptives vsync Judder und Inputlag entstehen? Das widerspricht dem Sinn eines adaptiven vsyncs.
        Unabhängig vom Vsync können die frametimes natürlich trotzdem grottig sein.
      • Von LinusTECH Kabelverknoter(in)
        Zitat von xDave78
        PC (i7, GTX980) ~1.700 € (eher so 2.000) - XBOX ONE 300€ ....ich würde sagen im Anbetracht dessen: XO wins
        Wenn man NUR auf den Preis achtet, dann mag das stimmen. Ich konnte im November Rise of TR selbst auf der Xbox One testen, musste aber nach 1.5-2h abbrechen.
        Objektiv gesehen bringt eine Technik-Analyse der PC- und XO-Fassung folgendes hervor:

        Zitat


        Image Quality: - Rise of the Tomb Raider operates primarily at 1920x1080 with post-process anti-aliasing in effect. During cut-scenes this is knocked down to 1440x1080. Unfortunately, the anti-aliasing solution here combined with the assets in use simply cannot keep up with what is on display and we're left with noticeable sub-pixel breakup and shimmering throughout many sequences in the game. Furthermore, we noticed a recurring artefact in which pixels along certain edges appear much lower in resolution than the rest of the game. Just to give a better idea of how the lower resolution used in cut-scenes fares from a gameplay angle, we managed to capture a pair of shots showcasing just this. The first shot was taken just as the cut-scene returned control over to the player and is still rendering at 1440x1080. One frame later, the game returns to 1920x1080. Perhaps 1440x1080 with improved anti-aliasing could have yielded better results?
        Frame-rate: Rise of the Tomb Raider targets 30 frames per second with adaptive v-sync and reaches its objective fairly often. However, we ran across a significant number of scenes in which this frame-rate could not be maintained leaving us instead with judder and torn frames along the top 30 per cent of the image. We noticed a performance penalty when engaging enemies in combat as well though slowdown can occur even in sequences without any enemies or characters on screen.
        Input latency: One issue we struggled with throughout the game is its input latency. Prior to receiving the game, we spent some time revisiting Tomb Raider on both PlayStation 3 and PlayStation 4 and found that Rise of the Tomb Raider feels less responsive. Aiming is more cumbersome and difficult here to the point where it feels more as if you're pushing the camera rather than directly controlling it. It's not an issue during exploration or puzzle solving, but combat suffers.
        Materials: Rise of the Tomb Raider has made the jump to a physically-based renderer but the results leave something to be desired. Compared to its contemporaries, the materials in this game simply lack the realism we've come to expect. While cloth, snow, and ice are convincing enough, much of the stone and wood work just don't work for us. Indirect lighting conditions often appear unnatural, despite the reliance on image based light probes, and specular highlights behave in an unrealistic fashion.

        Tech Analysis: Rise of the Tomb Raider • Eurogamer.net
        Auf der Xbox One werden durch Adaptive Vsync und den ohnehin schon geringen 30fps sehr oft Frames "verschluckt", wodurch Judder und Input Lag entsteht. In der Praxis bedeutet das: Du kannst kaum vernünftig zielen weil das Bild ruckelt und zerreisst (weil nur adaptive), und zusätzlich dazu hast du dann noch die Verzögerung drin weil manche Frames erst später ausgegeben werden, als gerendert. Ich hab es selbst getestet, und wenn man 60fps oder wie ich 144-165fps gewohnt ist, dann geht das GAR NICHT mehr.. Auch die simple Kamera-Justierung leidet arg darunter, vor allem weil das Bild wegen der 30fps schon von Grund auf ruckelt. Die Xbox One Fassung entspricht in etwa einer Mischung aus mittleren und hohen Details der PC Fassung -> bei der empfohlenen GTX 970 für Full HD kann man mit einer .ini-tweak-Mischung aus genannten Medium/High mit ca. 75-85fps spielen. In 1440p (was meine native Monitor-Auflösung ist) bekommt man mit besagten tweaks und der empfohlenen GTX 980Ti genau so viel Frames. Der Unterschied ist hierbei mehr als deutlich, da man nicht nur die deutlich höhere Framerate bekommt, sondern auch ein um Welten besseres Gameplay. Kein Judder, kein Tearing, minimalster Lag.

        Als Fazit kann man (wie meistens) sagen dass man genau das bekommt wofür man bezahlt. 300€ und Xbox One entspricht qualitativ dem untersten Minimum - ist man 60Hz oder mehr am PC gewohnt, investiert man lieber mehr und hat dann auch das deutlich bessere Erlebnis. Zwischen der 30fps Fassung der Xbox One inkl. Judder, Tearing, Lag +fehlenden Effekten bei der Grafik, und der 1440p Fassung am PC inkl. 60fps+ sowie Pure Hair etc. liegen jedenfalls mindestens ein bis zwei Generationen.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 12/2016 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
video
1184247
Rise of the Tomb Raider
Rise of the Tomb Raider: ​Video-Grafikvergleich - PC vs Xbox One
Rise of the Tomb Raider im Video-Grafikvergleich! Am 28. Januar 2016 erscheint Rise of the Tomb Raider auch auf dem PC. Wir haben die Version ausprobiert und zeigen euch im Video-Grafikvergleich die optischen Unterschiede - die eher behutsam ausfallen. Aufgenommen haben wir die PC-Version auf einem Intel i7-PC unter Windows 10 mit Geforce GTX 980 und 16 GB RAM.
http://www.pcgameshardware.de/Rise-of-the-Tomb-Raider-Spiel-54451/Videos/Video-Grafikvergleich-PC-vs-Xbox-One-1184247/
27.01.2016
http://www.pcgameshardware.de/screenshots/medium/2016/01/RiseOfTheTombRaider_Grafikvergleich_2016.01.21_thumb_b2teaser_169.jpg
video-grafikvergleich
videos
http://vcdn.computec.de/ct/2016/1/67332_sd.mp4