Games World
  • Grafikkarten-Rückblick 2015: Von Debakeln, aufgetauchten Inseln und verschollenen Schlachtschiffen

    Blickt man auf die Historie der Grafikkarten, so hinterlässt das Jahr 2015 gemischte Gefühle. Es war ein Übergangsjahr, eine Durststrecke vor der lange erwarteten Fertigungsevolution. Die Grafikspezialisten AMD und Nvidia machten das Beste aus den verfügbaren Mitteln: Höhere Effizienz, höhere Taktraten, Kompromisse und so manches Experiment prägten das Gesicht der 2015er-Grafikkarten.

    Stagnation, durchzogen mit einigen Lichtblicken: 2015 hinterlässt Ambivalenz. PC Games Hardware wirft zum Ende des Jahres einen Blick zurück.

    Nvidia: Meister der Effizienz und Aufreger

          

    Nvidia läutet das neue Jahr 2015 mit der Geforce GTX 960 ein, welche die alternde GTX 760 ablösen und der Radeon R9 280/285 die Stirn bieten soll. Das gelingt ohne Zweifel, der neue Grafikprozessor GM206 trumpft damals wie heute mit hoher Effizienz auf - allein der Fortschritt bei der absoluten Leistung wird vielerorts vermisst. Den gibt es zwei Monate später: Mit der Geforce GTX Titan X holt Nvidia alles aus der mittlerweile gereiften 28-Nanometer-Fertigung heraus und präsentiert mit dem GM200-Chip einen echten Koloss, der bei gleichem Energiebudget eine deutlich höhere Leistung als ältere Grafikchips erzielt. Diese Leistung lassen sich die Kalifornier jedoch vergolden, nach wie vor wird eine vierstellige Eurosumme für das Flaggschiff fällig.

    Dass Nvidia es besser kann, beweist der Hersteller im Mai 2015: Die Geforce GTX 980 Ti erreicht rund 95 Prozent der Titan-X-Leistung und wirkt daneben wie ein Schnäppchen. Die Suche nach dem Haar in der Suppe verläuft erfolglos, da Nvidia bei der GTX 980 Ti auf versteckte Stolperfallen verzichtet - eine weise Entscheidung nach dem GTX-970-Debakel, das zum Jahreswechsel heftig diskutiert wurde und Nvidia einen Image-Verlust einbrachte. Im August runden die Kalifornier ihr Portfolio mit der Geforce GTX 950 nach unten ab. Die Einsteiger-Grafikkarte punktet wie ihre Geschwister mit Effizienz, wird in Spielen jedoch von vielen älteren Modellen überholt und lässt daher bis heute einen Preisrutsch vermissen.

    März: Die sündteure Geforce GTX Titan X (UVP: 999 USD) mit der neuen, hier voll ausgebauten GM200-GPU und 12 GiB Speicher nahm im Frühjahr auf dem Leistungsthron platz und verweilt dort bis heute - und auch der Preis hat sich nicht verändert. Die Lösung hört auf den Namen ... März: Die sündteure Geforce GTX Titan X (UVP: 999 USD) mit der neuen, hier voll ausgebauten GM200-GPU und 12 GiB Speicher nahm im Frühjahr auf dem Leistungsthron platz und verweilt dort bis heute - und auch der Preis hat sich nicht verändert. Die Lösung hört auf den Namen ... Quelle: PC Games Hardware Bereits angerissen, aber noch ein paar Zeilen wert ist der Aufreger des Jahres 2015: Nvidias Spielchen rund um den GTX-970-Grafikspeicher. Nach wie vor vermarktet Nvidia die Geforce GTX 970 als 4-GiByte-Grafikkarte, obwohl nur 3,5 GiByte normal, d. h. mit voller Geschwindigkeit angesprochen werden können. Erfordert eine Applikation mehr Speicher, muss ein L2-Cache-Block abwechselnd zwei Speichercontroller versorgen. Dieser gegenseitige Ausschluss - es kann nicht wie bei den primären 3,5 GiByte parallel gearbeitet werden - führt zu starken Leistungseinbußen, die unter anderem in Evolve, Batman: Arkham Knight und der Beta von CoD: Black Ops 3 klar sichtbar wurden. In den meisten Spielen hat Nvidia das Problem durch Steuerung des Grafiktreibers im Griff, doch auch hier sind wegen der Auslagerung rucklige Frametimes nahe der Füllgrenze nicht auszuschließen. Weiterhin ist zu befürchten, dass kommende Spiele die Belegung sprengen und/oder Nvidia die spezielle "Treiberliebe" nach Release der Pascal-Generation einstellt.

    Eine Entschädigung ist Nvidia den ahnungslosen GTX-970-Frühkäufern immer noch schuldig. Nun, ein Jahr später, ist damit aber nicht mehr zu rechnen. Das ist kein Wunder, denn die positiven Stimmen zur GTX 970 überwiegen und die Karte verbreitet sich ungehindert, obwohl Mitbewerber AMD das potentere Angebot hat. PCGH-Tipp: Gehen Sie einer ungewissen Zukunft und Speicherengpässen aus dem Weg, indem Sie eine Radeon R9 390 (8 GiB) einer Geforce GTX 970 (3,5+0,5 GiB) vorziehen. Empfehlenswerte Modelle finden Sie im Einkaufsführer eines jeden PCGH-Magazins oder hier: Grafikkarten Test und Vergleich: Bestenliste Nvidia Geforce und AMD Radeon.

    AMDs Tonga: Bis heute ein Rätsel

          

    Schon im September 2014 lüftete AMD den Vorhang zu seiner ersten GCN-1.2-basierten Grafikkarte, der Radeon R9 285 mit abgespeckter Tonga-GPU. Mit 359 mm² Chipfläche fällt AMDs Version des Königreichs Tonga etwas größer als der altehrwürdige Tahiti aus, obwohl die Packdichte laut AMD erhöht worden ist und die R9 285 nur eine 256-Bit-Speicherschnittstelle bietet. Da verwundert es nicht, dass sofort zahlreiche Gerüchte die Runde machten, dass Tonga in Wahrheit deutlich mächtiger sei als man es ihm zugesteht. Und tatsächlich kristallisierte sich Monate später heraus, dass Tonga im Inneren - wie Tahiti - ein 384-Bit-Interface trägt.

    Zeitsprung, es ist Juni. AMD erneuert sein Portfolio mit der Radeon-300-Serie, allesamt umbenannte 200er-Karten. Darunter befindet sich auch die Radeon R9 380, welche nicht etwa den lange erwarteten Tonga-Vollausbau, sondern wieder nur Tonga Pro mit 1.792 aktiven Shader-Einheiten trägt, diesmal mit etwas höherem Takt. Apples iMac 5K zeigt derweil, dass es Tonga XT mit 2.048 ALUs gibt. Im November ist es endlich soweit, die Radeon R9 380X erscheint und mit ihr das erste Mal Tonga XT im Desktopsegment. Doch auch diese Grafikkarte bietet nur eine 256-Bit-Speicherschnittstelle nebst 4 GiByte Speicher. Wo ist der Rest geblieben? AMD gab jüngst beiläufig an, dass man dafür kein geeignetes Marktsegment gefunden habe. PCGH meint: 384 Bit und 6 GiByte hätten der R9 380X gut zu Gesicht gestanden, allerdings sähen die Fiji-Modelle mit ihren 4 GiByte dann noch etwas unterbestückter aus. Ob Tonga "XTX" jemals aus den Tiefen der AMD-Labore (unternehmensintern immer noch "Ati") auftauchen wird, ist ungewiss und unwahrscheinlich.

    Fiji, HBM, Fury, Nano: Technikfeuerwerk von AMD

          

    Apropos Fiji. Auf AMDs einzigem wirklich neuem Grafikprozessor des Jahres 2015 lagen große Hoffnungen. Nvidia hatte mit der GTX Titan X und GTX 980 Ti doppelt stark vorgelegt. Mithilfe des neuen Hochleistungsspeichers HBM, welcher maßgeblich von AMD und seinem Partner SK-Hynix entwickelt wurde, und dem großen Fiji-Chip standen die Chancen hervorragend, das High-End-Segment aufzumischen. Als die Radeon R9 Fury X dann im Laden stand, lieferte sie zwar eine hohe Leistung ab und war technisch hochspannend, doch reichte es am Ende nur für einen dritten Platz, hinter Titan X und 980 Ti. Schlimmer noch, das Pumpenfiepen ("Pumpgate") der ersten Produktionscharge verwässerte den grundsätzlich positiven Eindruck, denn abseits dieses Mangels konnte AMD mit sehr niedriger Lautheit auftrumpfen. Die Tatsache, dass 4 GiByte Speicher bei einer derart schnellen Grafikkarte knapp bemessen sind, wird zum Nebenschauplatz.

    September: Sie gilt als Sieger der Herzen und wahres Highlight des Jahres 2015: AMDs Radeon R9 Nano. So viel Kraft in nur 15,3 Zentimetern Baulänge, da weiß man als männlicher Geek nicht genau, ob man vor Ehrfurcht erstarren oder den Vatergefühlen nachgeben soll. Im Bild der Gag 'BaNano' (banana for scale -> Banane als Größenvergleich) September: Sie gilt als Sieger der Herzen und wahres Highlight des Jahres 2015: AMDs Radeon R9 Nano. So viel Kraft in nur 15,3 Zentimetern Baulänge, da weiß man als männlicher Geek nicht genau, ob man vor Ehrfurcht erstarren oder den Vatergefühlen nachgeben soll. Im Bild der Gag "BaNano" (banana for scale -> Banane als Größenvergleich) Quelle: PC Games Hardware Ein paar Wochen später erschien die Radeon R9 Fury und entpuppte sich als schlagkräftige Alternative zur Geforce GTX 980. Im Gegensatz zur Fury X, bei der AMD Custom-Designs verbietet, erscheint die Fury zum Start in verschiedenen, zahlenmäßig jedoch überschaubaren Designs. Diese sind gelungen, doch wie die Fury X hat auch die abgespeckte Version mit einem zu hohen Preis zu kämpfen, der bis heute kaum gesunken ist.

    Neben der sehr hohen Transferrate bietet HBM einen weiteren Vorteil: Platz- und Stromersparnis. So basiert bereits die Fury X auf einer kompakten Platine, doch erst die im September erschienene Radeon R9 Nano (nicht Fury Nano) zeigt wirklich, was mit HBM möglich ist. Sie liefert die High-End-Leistung einer R9 Fury respektive GTX 980 auf nur 15,3 Zentimetern Baulänge und läuft damit außer Konkurrenz. Damit ist die auf Energieeffizienz getrimmte Mini-Grafikkarte der wahre HBM-Showcase und Garant positiver Presse. Doch es ist nicht alles sonnig auf Fiji: Die Nano hat mit Spulenpfeifen zu kämpfen und kann sich temperatur- und lastabhängig kaum von den 290(X)-/390(X)-Grafikkarten absetzen. Hinzu kommt der hohe Startpreis von 700 Euro. Marktanteile erkämpft sich AMD auch mit der R9 Nano folglich keine, bessert jedoch seinen Ruf auf.

    Schleichende Enden und weitere Entwicklungen

          

    2015 war auch das Jahr der schleichenden Enden. Da wäre Mantle: AMD und die Spieleschmiede DICE (u. a. Battlefield 4) haben den Grundstein gelegt, der zur raschen Entwicklung von DirectX 12 und Vulkan geführt hat. Die einst als "Gamechanger" gefeierte Mantle-Schnittstelle wird nun sogar offiziell von AMD zu Grabe getragen, kommende Spiele und Ressourcen konzentrieren sich primär auf DX12. Für 2016 sind einige Spiele mit DX12-Unterstützung angekündigt, die große Flut bleibt aber Stand jetzt aus.

    2014 kündigte es sich mit Watch Dogs, Shadow of Mordor und einigen anderen Titeln bereits an, doch erst die 2015 erschienene, voll auf die modernen Konsolen getrimmte Spielegeneration schafft Gewissheit: Die Tage von Grafikkarten mit 2 GiByte Speicher sind gezählt. Viele moderne Spiele laufen erst mit 3 oder besser 4 GiByte (nachlade-)ruckelfrei. PC Games Hardware rät daher seit einiger Zeit beim Neukauf zu entsprechenden Modellen, am besten mit 4 GiByte.

    In der Bildergalerie lassen wir das Jahr nochmal chronologisch kommentiert Revue passieren. Welche Grafikkarte fanden Sie im Jahr 2015 am spannendsten, welche am kuriosesten? Diskutieren Sie im Kommentarbereich mit!

    Wissenswert: Mehr Informationen zum Thema finden Sie in:
    Radeon Catalyst Treiber Download: Crimson 16.5.3
      • Von Klinge Xtream Freizeitschrauber(in)
        Zitat von SaftSpalte
        Na logisch hatte ich GTA 5 gemeint . Der Satz sollte Ironie sein

        Der Unterschied Zwischen Full HD 16:9 und 21:9 ist nicht wirklich bemerkbar .

        Was aber sehr krass ist der Unterschied vom Monitor und Fernseher .

        30 FPS auf dem Monitor sind leicht unsauber und nicht so schön Flüssig .

        30 FPS auf dem Fernseher sind einfach gut Flüssig . Das ganze hatte schon ein kleinen WoW effekt .

        Zocke auch Super Mario nur auf dem Fernseher vom Pc aus .
        Ich denke das hängt von der Engine ab. NfS The Run, Dark Souls evtl. noch andere flüssig mit 30fps am Monitor. Fast alles andere was ich probiert hab, ob 30Hz V-Sync oder Framelimiter, es kommt einem sehr abgehackt vor.
        Dass es auf nem TV flüssiger ist, war schon fast klar weshalb man Konsolenspiele auch etwas flüssiger wahrnimmt bei um die 30fps. Im TV steckt ja nochmal Technik, die die Ausgabe bearbeitet (100Hz und so shit).
      • Von SaftSpalte Software-Overclocker(in)
        Zitat von Klinge Xtream
        Ähm ich habe eher das Gefühl, dass GTA4 schlechter ausschaut UND schlechter läuft (vorallem mit Nachtschatten).
        Aber nein, ich meine GTA5 was man mit lesen und ein wenig Logik hätte herausfinden müssen.
        Ich bin zum Glück nicht soo empfindlich gegenüber flimmern, dass mir SweetFX in GTA5 (fünf ) gut hilft.
        Und mit beschriebenen Settings bin ich happy.
        Dass du ne 21:9 Auflösung hast, wusste ich nicht. Das würde aber auch erklären warum 2GB VRAM knapp sind.
        Na logisch hatte ich GTA 5 gemeint . Der Satz sollte Ironie sein

        Der Unterschied Zwischen Full HD 16:9 und 21:9 ist nicht wirklich bemerkbar .

        Was aber sehr krass ist der Unterschied vom Monitor und Fernseher .

        30 FPS auf dem Monitor sind leicht unsauber und nicht so schön Flüssig .

        30 FPS auf dem Fernseher sind einfach gut Flüssig . Das ganze hatte schon ein kleinen WoW effekt .

        Zocke auch Super Mario nur auf dem Fernseher vom Pc aus .
      • Von Klinge Xtream Freizeitschrauber(in)
        Zitat von SaftSpalte
        In 2560x1080 .

        Ich weiss nicht ob es sich bei dir um GTA 5 oder GTA 4 handelt
        Ähm ich habe eher das Gefühl, dass GTA4 schlechter ausschaut UND schlechter läuft (vorallem mit Nachtschatten).
        Aber nein, ich meine GTA5 was man mit lesen und ein wenig Logik hätte herausfinden müssen.
        Ich bin zum Glück nicht soo empfindlich gegenüber flimmern, dass mir SweetFX in GTA5 (fünf ) gut hilft.
        Und mit beschriebenen Settings bin ich happy.
        Dass du ne 21:9 Auflösung hast, wusste ich nicht. Das würde aber auch erklären warum 2GB VRAM knapp sind.
      • Von Rollora Lötkolbengott/-göttin
        Es ist halt eine sache, zu glauben, deine Wahrheit ist die einzige, weil es bei dir läuft muss es bei allen anderen Laufen.
        Und das andere ist die Realität.
        Und wenn du lesen könntest, hab' ich beschrieben, dass GTA5 sauber läuft. Aber lieber mal den anderen bewusste Falschaussagen unterstellen...

        Wenns bei mir und anderen Leuten ruckelt und laggt (in den erwähnten Spielen, NICHT in GTA5, bitte lesen lernen), dann musst du mir nicht sagen, dass alles superduperdoll ist mit dieser Wunderkarte
      • Von Schaffe89 Gesperrt
        Zitat
        (aber auch betone, dass es nur wenige Spiele sind, und noch dazu von Nvidianahen UBIsoft sind)
        "Der Unterschied zwischen 3.5 und 4GB wird nie plötzlich akut werden, sprich, wenn die 3GB Karten Probleme kriegen, werdens wohl auch die 3.5 und 4GB Karten sein. Viel eher noch kriegt Fury Probleme, dessen Latenzprobleme sind bis heute nicht behoben und werden es wohl auch nicht."

        "Die Fury mit ihren superdollen 4GB HBM zeigt außerdem erst recht, wie wenig das ganze aussagt, schließlich hat diese unter 1080 P schon teils arge microlags wie man es nur aus Zeiten vom ersten SLI und Crossfire kennt"

        Ich sehe da überhaupt keine Betonungen in diese Richtung , sondern einfach nur gewollte Übersteigerungen und eigentlich auch bewusste Falschaussagen.
        Für mich ist das Thema erledigt, es gibt auch ne Ignorefunktion und von der werd ich auch Gebrauch machen, anstatt mich hier immer wieder streiten zu müssen.
        GTA5 lief auf meiner Fury X und meiner Titan X im Grafiklimit geschmeidig, keine Ruckler, also gibt es auch keine Probleme.
  • Print / Abo
    Apps
    PC Games Hardware 07/2016 PC Games 06/2016 PC Games MMore 05/2016 play³ 07/2016 Games Aktuell 06/2016 buffed 06/2016 XBG Games 03/2016
    PCGH Magazin 07/2016 PC Games 06/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1181541
Grafikkarten
Grafikkarten-Rückblick 2015: Von Debakeln, aufgetauchten Inseln und verschollenen Schlachtschiffen
Blickt man auf die Historie der Grafikkarten, so hinterlässt das Jahr 2015 gemischte Gefühle. Es war ein Übergangsjahr, eine Durststrecke vor der lange erwarteten Fertigungsevolution. Die Grafikspezialisten AMD und Nvidia machten das Beste aus den verfügbaren Mitteln: Höhere Effizienz, höhere Taktraten, Kompromisse und so manches Experiment prägten das Gesicht der 2015er-Grafikkarten.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Grafikkarten-Rueckblick-2015-1181541/
29.12.2015
http://www.pcgameshardware.de/screenshots/medium/2015/01/GTX-960-Referenzdesign-pcgh_b2teaser_169.jpg
grafikkarte,gpu,radeon,amd,nvidia,geforce
specials