Online-Abo
  • Login
  • Registrieren
Games World
      • Von Locuza Lötkolbengott/-göttin
        Zitat von SFVogt
        Diese Aussage beruht jetzt auf welchen Fakten? Weil nVidia jetzt ebenfalls nur 64 Shader Einheiten pro Streaming Multiprozessor packt? Die Realität sieht doch so aus, das nVidia offensichtlich ständig bei neuen GPU Generationen Hand anlegt, sieht man sich Fermi (32SE/SM) gefolgt von Kepler (192SE/SM) über Maxwell (128SE/SM) zu Pascal (64SE/SM) an. Das nVidia sich hier also AMD GCN als 'Maßstab' heran gezogen hat, obwohl Sie auch auch mit deutlich abweichenden Designs zweifelsfrei in der Praxis konkurrenzfähig waren, halte ich daher für weit hergeholt. Angesichts des angekündigten Intel Knights Landing Monster Chips mit >3TFLOPS DP sah sich nVidia wohl schlicht genötigt Wege zu suchen die DP Leistung des nächsten Big-Chip signifikant zu erhöhen, was wohl bei Pascal eher zu der wiederholt überarbeiten (GCN ähnlichen) GPU Struktur geführt haben dürfte, als in hohen Auflösungen und VR besser da zu stehen.
        Ich finde es jetzt sekundär, ob GCN einen Maßstab für Nvidia dargestellt hat, dass Nvidia aber mittlerweile zu einer ähnlichen Leitlinie gekommen ist scheint ersichtlich:

        Fermi:
        32 ALUs, 128 KB Register, 64 KB shared-memory (zusammen mit L1) , 4 TMUs

        Kepler:
        192 ALUs, 256 KB Register, 64 KB shared-memory (zusammen mit L1), 16 TMUs

        Maxwell:
        128 ALUs, 256 KB Register, 96 KB shared-memory, 8 TMUs

        Pascal:
        64 ALUs, 256 KB Register, 64 KB shared-memory, 4 TMUs

        GCN:
        64 ALUs, 256 KB Register, 64 KB shared-memory, 4 TMUs

        Auf das Ergebnis ist Nvidia letztendlich gekommen, um die praktische Compute-Leistung zu verbessern und das TMU-Verhältnis wurde Richtung Energie-Effizienz optimiert.
        Die Cache-Struktur wurde auch für eine bessere Performance überarbeitet.
      • Von hanfi104 BIOS-Overclocker(in)
        Zitat von KuroSamurai117
        Interessant.
        [...]
        Zumal die Entwickler mal lernen sollten mit dem Speicher auszukommen umd nicht alles bis Anschlag volllaufen zu lassen.

        Solange also nicht 8k ansteht werden 8GB bei der Leistungsklasse für die nächsten Jahre okay sein.
        Bei 1-2 Klassen über 1080er gern mehr.
        Ich stimme dir auch zu, das die Entwickler endlich mal wieder Ressourcenmanagement lernen sollten. Aber:

        Zitat von KuroSamurai117

        Denke mal 8GB werden reichen. 12GB muss ja auch die GPU verarbeiten können. Was nütz da Speicher wenn man von der Leistung nicht hinterher kommt. Selbst bei einer 390 hätten 6 GB wohl gereicht. Gut, wenn es von den Kosten keinen Unterschied macht nimmt man es gern wegen dem Marketing mit.
        Das hat man zu 680/770, 780(ti) auch gesagt.
        Nachdem keine neuen Konsolen kommen, dürften 8 GB wirklich erstmal ausreichen, aber nur mit mind. 12 GB wäre man aber wirklich 99% sicher
      • Von JoM79 Kokü-Junkie (m/w)
        Zitat von KuroSamurai117
        Zumal die Entwickler mal lernen sollten mit dem Speicher auszukommen umd nicht alles bis Anschlag volllaufen zu lassen.
        Ein gutes Beispiel ist da Witcher 3.
        Das sieht auch gut aus, obwohl es nicht wirklich VRAM braucht.
      • Von KuroSamurai117 PC-Selbstbauer(in)
        Interessant.

        Denke mal 8GB werden reichen. 12GB muss ja auch die GPU verarbeiten können. Was nütz da Speicher wenn man von der Leistung nicht hinterher kommt. Selbst bei einer 390 hätten 6 GB wohl gereicht. Gut, wenn es von den Kosten keinen Unterschied macht nimmt man es gern wegen dem Marketing mit.

        Zumal die Entwickler mal lernen sollten mit dem Speicher auszukommen umd nicht alles bis Anschlag volllaufen zu lassen.

        Solange also nicht 8k ansteht werden 8GB bei der Leistungsklasse für die nächsten Jahre okay sein.
        Bei 1-2 Klassen über 1080er gern mehr.
      • Von SFVogt PC-Selbstbauer(in)
        Zitat von Incredible Alk
        [...]

        Übrigens hat NVidia jetzt ihre Pascal-Generation stark ans GCN-Design angepasst um in hohen Auflösungen und VR besser mitzuhalten. Pascal hat sehr viel mehr mit GCN gemeinsam als Maxwell.

        [...]
        Diese Aussage beruht jetzt auf welchen Fakten? Weil nVidia jetzt ebenfalls nur 64 Shader Einheiten pro Streaming Multiprozessor packt? Die Realität sieht doch so aus, das nVidia offensichtlich ständig bei neuen GPU Generationen Hand anlegt, sieht man sich Fermi (32SE/SM) gefolgt von Kepler (192SE/SM) über Maxwell (128SE/SM) zu Pascal (64SE/SM) an. Das nVidia sich hier also AMD GCN als 'Maßstab' heran gezogen hat, obwohl Sie auch auch mit deutlich abweichenden Designs zweifelsfrei in der Praxis konkurrenzfähig waren, halte ich daher für weit hergeholt. Angesichts des angekündigten Intel Knights Landing Monster Chips mit >3TFLOPS DP sah sich nVidia wohl schlicht genötigt Wege zu suchen die DP Leistung des nächsten Big-Chip signifikant zu erhöhen, was wohl bei Pascal eher zu der wiederholt überarbeiten (GCN ähnlichen) GPU Struktur geführt haben dürfte, als in hohen Auflösungen und VR besser da zu stehen.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1193285
Nvidia Pascal
Nvidia Geforce GTX 1080: Foto zeigt vermutlich Custom-Version von MSI
Im Internet sind nach den Aufnahmen eines GP104-200 samt GDDR5 nun auch Fotos aufgetaucht, die einen GP104-400 zeigen. Dieser Grafikchip wird anscheinend auch von GDDR5X-Speicherchips umgeben und soll von einer Geforce GTX 1080 stammen. Inzwischen gibt es auch einen Hinweis darauf, dass es sich dabei nicht um ein Referenzmodell handeln könnte.
http://www.pcgameshardware.de/Nvidia-Pascal-Hardware-261713/News/Geforce-GTX-1080-Foto-vermutlich-Custom-Version-MSI-1193285/
24.04.2016
http://www.pcgameshardware.de/screenshots/medium/2016/04/NVIDIA-Pascal-GP104-400-A1-GPU-1-pcgh_b2teaser_169.jpg
nvidia pascal,msi,nvidia,geforce
news