Geforce RTX 2080 Ti & RTX 2080 im Test: Turing gegen Pascal und Vega [Update]
Die Geforce RTX 2080 Ti und RTX 2080 im Test mit Benchmarks: Die ersten beiden Turing-Geforce-Grafikkarten stehen in den Startlöchern. PC Games Hardware hat sich die Leistung der RTX 2080 Ti und RTX 2080 in realitätsnahen Spieleszenarien angesehen und klärt im ausführlichen Turing-Test, ob sich die Neulinge auch aus Preis-Leistungs-Sicht lohnen. Jetzt mit HDR-Benchmarks.
Aktualisierung vom 20.09.2018: Wir haben die Benchmarks zu Geforce RTX 2080 (Ti) um HDR-Werte aus drei Spielen aktualisiert.
Am morgigen Donnerstag, den 20. September, wird Nvidia offiziell die erste Grafikkarte aus der Turing-Familie veröffentlichen: Die Geforce RTX 2080. Eigentlich sollte der Stichtag auch für das neue Topmodell, die Geforce RTX 2080 Ti gelten, deren Launch wurde jedoch kurzfristig um eine Woche auf den 27. September verschoben. Am heutigen Mittwoch darf die Fachpresse nun ihre Testberichte zu beiden Modellen veröffentlichen. Ursprünglich war eine gestaffelte Berichterstattung seitens Nvidia geplant, aufgrund von Verzögerungen bei der Bemusterung fiel der Plan jedoch flach. Erste Exemplare trudelten bereits Anfang vergangener Woche in der PCGH-Redaktion ein, den notwendigen Treiber lieferte Nvidia allerdings erst am Freitag - damit blieben immerhin noch ein paar Tage zum Testen.
Dank eines beinahe ununterbrochenen Testmarathons inklusive ausgedehnter Wochenendschicht haben wir sowohl die Geforce RTX 2080 Ti als auch die Geforce RTX 2080 gut genug kennengelernt, um Ihnen die nötige Informationsmenge zum Launch bereitzustellen. Dennoch muss gesagt werden, dass selbst die erzielten 50 Teststunden zu wenig sind, um wirklich alle Nuancen einer neuen GPU-Architektur kennenzulernen. Das Folgende ist das Aggregrat besagter Tests, voller Erkenntnisse und Messwerte. Freuen Sie sich dennoch auf einige Updates sowie Folge-Artikel, welche Teildisziplinen der Turing-Architektur weiter beleuchten und mit bis dahin gewonnenen Erkenntnissen anreichern.
Die Geforce-RTX-Reihe mit dem Codenamen "Turing" besteht vorerst aus drei Grafikchips. Der größte hört auf den Codenamen TU102, bringt 18,6 Milliarden Transistoren auf stolzen 754 mm² unter und sitzt auf der Geforce RTX 2080 Ti. Darunter positionieren sich der 545 mm² große TU104 mit 13,6 Mrd. Transistoren auf der Geforce RTX 2080 und der 445 mm² große TU106 mit 10,8 Mrd. Transistoren auf der Geforce RTX 2070 - Letztere wird Nvidia kommenden Monat offiziell veröffentlichen. Die Größen deuten es schon an: Nvidia lässt alle drei GPUs bei TSMC im 12FFN-Prozess fertigen, der wiederum auf 16FF+ basiert. Feinere Strukturbreiten standen nicht rechtzeitig in den benötigten Mengen zur Verfügung, was zu überdurchschnittlich großen Kerngrößen führt.
Spezifikationen der RTX 2080 Ti, RTX 2080 & RTX 2070 im Überblick
Auf dem Papier ist Turing nicht nur ein Transistor- und somit Flächengigant, auch die erreichten Leistungsdaten können sich sehen lassen. Blendet man den Volta GV100 aus, welcher nicht als Gaming-Geforce in den Handel kam, erreicht der TU102 in jeder Disziplin Spitzenwerte. Diese beziehen sich nicht nur auf die Theorie, sondern sollen auch praktisch erreicht werde. Denn mit Turing hat Nvidia einige Änderungen an der GPU-Mikroarchitektur vorgenommen, welche die Familie deutlich von Pascal (abseits des GP100) differenzieren. Ein Blick auf die oben stehende Tabelle offenbart einige davon: Genauso wie GV100 und der HPC-Ableger von Pascal, der GP100, bringen sämtliche Turing-Grafikchips 64 und nicht mehr 128 FP32-Shader pro Shader-Multiprozessor (SM) unter. Gleichzeitig bekommen der TU102 und TU104 ein stärkeres Front-End mit einer Organisation innerhalb von sechs statt vier Graphics Processor Clustern (GPCs) spendiert. Zusammen mit den durchweg größeren Caches soll das die praktisch erzielte Shader-Leistung erhöhen. Dazu gesellen sich Neuerungen wie dedizierte INT32-Recheneinheiten, die Tensor-Kerne sowie Raytracing-Einheiten. Letzteren beiden schenkt Nvidia bei der Vermarktung von Turing besonders viel Aufmerksamkeit: Die Geforce-RTX-Reihe will mehr sein als nur eine höhere Bildrate - Nvidia verspricht nicht weniger, als "die Grafik neu erfunden" zu haben. Ob das gelingt, prüfen wir in diesem Artikel erstmals.
| Modell | RTX 2080 Ti | RTX 2080 | RTX 2070 | Titan V | Titan Xp | GTX 1080 Ti | GTX 1080 | GTX 1070 |
|---|---|---|---|---|---|---|---|---|
| Codename/Konfektion | TU102-300A-K1 | TU104-400A | TU106(-425A?) | GV100-400 | GP102-450 | GP102-350-K1 | GP104-400 | GP104-200 |
| Name der Achitektur | Turing | Turing | Turing | Volta | Pascal | Pascal | Pascal | Pascal |
| Chipgröße (reiner Die) | 754 mm² | 545 mm² | 445 mm² | 815 mm² | 471 mm² | 471 mm² | 314 mm² | 314 mm² |
| Transistoren Grafikchip (Mio.) | 18.600 | 13.600 | 10.800 | 21.100 | 12.000 | 12.000 | 7.200 | 7.200 |
| Fertigungsverfahren | 12 nm FFN | 12 nm FFN | 12 nm FFN | 12 nm FFN | 16 nm FF+ | 16 nm FF+ | 16 nm FF+ | 16 nm FF+ |
| Shader-/SIMD-/Textureinheiten | 4.352/68/272 | 2.944/46/184 | 2.304/18/144 | 5.120/80/320 | 3.840/30/240 | 3.584/28/224 | 2.560/20/160 | 1.920/15/120 |
| Tensor-Kerne | 544 | 368 | 288 | 640 | - | - | - | - |
| Raytracing-Kerne | 68 | 46 | 36 | - | - | - | - | - |
| Leistung RT-Kerne (Giga-Rays/s) | 10 | 8 | 6 | - | - | - | - | - |
| Raster-Endstufen (ROPs) | 88 | 64 | 64 | 96 | 96 | 88 | 64 | 64 |
| GPU-Basistakt (MHz) | 1.350 | 1.515 | 1.410 | 1.200 | 1.480 | 1.480 | 1.607 | 1.506 |
| GPU-Boost-Takt (MHz) | 1.635 | 1.800 | 1.710 | 1.455 | 1.582 | 1.582 | 1.733 | 1.683 |
| FP32/FP64-Leistung (TFLOPS) | 14,23/0,45 | 10,60/0,33 | 7,88/0,25 | 14,90/7,45 | 12,15/0,38 | 11,34/0,35 | 8,87/0,28 | 6,46/0,20 |
| Größe des Level-2-Cache (KiB) | 5.632 | 4.096 | 4.096 | 5.376 | 3.072 | 2.816 | 2.048 | 2.048 |
| Speicheranbindung (Bit) | 352 | 256 | 256 | 3.072 | 384 | 352 | 256 | 256 |
| Geschwindigkeit RAM (GT/s) | 14,0 | 14,0 | 14,0 | 1,7 | 11,4 | 11,0 | 10,0 | 8,0 |
| Speichertyp | GDDR6 | GDDR6 | GDDR6 | HBM gen2 | GDDR5X | GDDR5X | GDDR5X | GDDR5 |
| Speicherübertragung (GB/s) | 616,0 | 448,0 | 448,0 | 653,6 | 547,4 | 484,7 | 320,4 | 256,0 |
| Übliche Speichermenge (MiB) | 11.264 | 8.192 | 8.192 | 12.288 | 12.288 | 11.264 | 8.192 | 8.192 |
| PCI-Express-Stromanschlüsse | 2 × 8-polig | Je 1 × 8-/6-polig | vmtl. 1 × 8-polig | Je 1 × 8-/6-polig | Je 1 × 8-/6-polig | Je 1 × 8-/6-polig | 1 × 8-polig | 1 × 8-polig |
| Typische Leistungsaufnahme | <260 Watt | <225 Watt | <185 Watt | <250 Watt | <250 Watt | <250 Watt | <180 Watt | <150 Watt |
Angaben der Leistung jeweils mit typischem Boost laut Hersteller. In der Praxis schwankt die Frequenz und somit auch der Durchsatz.
Was Turing anderen GPUs voraus hat
Einer der Pfeiler Turings ist der "Heilige Gral" des Renderings: Raytracing. Dabei handelt es sich um die virtuelle Nachbildung von Lichtstrahlen, mit der automatisch eine lebensechte Beleuchtung einher geht. Traditionelle Rasterisierung, wie sie 99,999 Prozent der Spiele verwendet, erzielt nur mithilfe von Tricks und guten Künstlern ein realistisch anmutendes Ergebnis. Der Grund, warum Raytracing dennoch keinen Durchbruch feiern konnte, liegt in den enormen Leistungskosten.
Mit Turing möchte Nvidia Raytracing in Echtzeit salonfähig machen. Die dafür erstmals im Chip installierten Schaltkreise, die RT Cores, berechnen virtuelle Lichtstrahlen wesentlich effizienter als traditionelle Shader-ALUs. Die Raytracing-Leistung der Turing-Chips reicht allerdings noch nicht, um das komplette Bild entsprechend zu berechnen, weshalb ein Hybrid-Absatz mit klassischer Rasterisierung als Basis zum Einsatz kommt. Microsoft hat derweil mit DXR eine API in DirectX 12 integriert, welche die Raytracing-Funktionalität offenlegt. Nvidia nennt sein auf DXR basierendes Back-End RTX (wie das neue Geforce-Kürzel), AMD dürfte mit einer eigenen Lösung folgen. Ebenso wird die Khronos Group eine Alternative in Vulkan integrieren.
Wie wäre es, wenn Ihre Grafikkarte in der Lage wäre, in Echtzeit Spiele, Bilder und Filme drastisch aufzuwerten?
Die zweite große Neuerung der Turing-Architektur besteht aus der Nutzbarmachung sogenannter Neuronaler Netzwerke. Bestimmt sind Sie in den vergangenen Jahren immer wieder über diesen Begriff gestolpert, welcher im Kontext der Schlagworte Machine Intelligence und Deep Learning auftaucht. Sie alle beschreiben die IT-Leitthemen des aktuellen Jahrzehnts: Künstliche Intelligenz, lernende Computer, "schlaue" Programme. Bis zu Skynet und einem Terminator ist noch viel zu tun, die Fortschritte auf dem Gebiet der Inferenz (Schlussfolgerung) sind jedoch beeindruckend. Nvidia hat in den vergangenen Jahren viel Hirnschmalz und Forschungsgeld investiert, um die eigenen Grafikchips und Programme in dieser Disziplin voranzubringen. Mit Turing haben erstmals auch normalsterbliche Anwender etwas davon, während die Jahre zuvor in erster Linie Forscher und Programmierer ihren Spaß damit hatten.
Wie wäre es, wenn Ihre Grafikkarte in der Lage wäre, in Echtzeit Spiele, Bilder und Filme drastisch aufzuwerten? Das ist nur einer der vielen Einsatzzwecke. Damit das funktioniert, braucht es Unmengen an Rechenleistung, zur Verfügung gestellt von Supercomputer-Netzwerken, Petabytes an Basisdaten sowie lernende Algorithmen. Dieses Training, wie die Fütterungs- und Verdauungsprozess beim Deep Learning genannt wird, führt am Ende zu Wissen, das Sie bei sich Zuhause anwenden können. Nvidia hat zu diesem Zweck die Tensor-Kerne eingeführt, welche die Erkenntnisse des Netzwerks in Echtzeit anwenden. Merken sie sich an dieser Stelle das Schlüsselwort Deep Learning Super-Sampling (DLSS) - dazu gleich mehr.
Eine ausführliche Auseinandersetzung zu Turing und den drei GPUs TU102, TU104 sowie TU106 finden Sie in unserem ausführlichen Technik-Dossier. Wir empfehlen Ihnen die Lektüre dieses Artikels, um die Ergebnisse des vorliegenden Artikels richtig zu erfassen.
Die Preissituation aufgeschlüsselt
Nvidia nennt im Falle der Geforce RTX 2080 Ti, RTX 2080 und RTX 2070 wie schon bei Pascal zwei verschiedene Preisempfehlungen: Zum einen UVPs für die hauseigenen Founders Editions und zum anderen "ab"-Preise für die Boardpartner:
| Modell | Preisempfehlung Founders Edition | Preisempfehlung Custom-Designs |
|---|---|---|
| Geforce RTX 2080 Ti | 1.199 US-Dollar/1.259 Euro | ab 999 US-Dollar/entspricht ca. 1.030 Euro |
| Geforce RTX 2080 | 799 US-Dollar/849 Euro | ab 699 US-Dollar/entspricht ca. 720 Euro |
| Geforce RTX 2070 | 599 US-Dollar/639 Euro | ab 499 US-Dollar/entspricht ca. 515 Euro |
Diese "ab"-Preise müssen die Hersteller nicht einhalten. Vor allem mit den "dicken" Flaggschiffen orientieren sie sich vielmehr an den Founders Editions und überschreiten deren Preise teilweise sogar. Nvidia erwartet, dass sich die Boardpartner zunächst auf die werkseitig übertakteten Modelle mit ausladenden Kühllösungen konzentrieren und in den folgenden Wochen vermehrt die schwächeren Varianten in größeren Mengen auf den Markt bringen werden. Vor allem die Lösungen mit Direct-Heat-Exhaust-Kühlern samt Radiallüftern dürften sich dann den günstigeren Preisempfehlungen nähern. Darüber sortieren sich üblicherweise die "Brot und Butter"-Grafikkarten mit Dual-Slot-Kühlern und zwei Axiallüftern ein. Modelle vom Schlage ROG Strix, Aorus und Gaming X bilden die Speerspitze.


