Login Registrieren
Games World
Zur Mobil-Seite
  • AMD Radeon RX Vega 64 und Vega RX 56 im Test: Heiße Vega?
    Quelle: PC Games Hardware

    AMD Radeon RX Vega 64 und Vega RX 56 im Test: Heiße Vega?

    Mit der Radeon RX Vega 64 und RX Vega 56 bläst AMD zum Angriff auf Nvidias Geforce GTX 1080 und GTX 1070, welche über ein Jahr lang allein auf weiter Flur waren. Was AMDs neuer Oberklasse-Prozessor Vega in Spielen leistet, prüfen wir im ausführlichen Test der RX Vega 64 und RX Vega 56.

    Am 14. August debütierten mehrere Oberklasse-Grafikkarten aus dem Hause AMD: Die Radeon RX Vega 64 Liquid, die Radeon RX Vega 64 Air und die Radeon RX Vega 56. Letztere ist ausschließlich als luftgekühlte Variante erhältlich und als einziges Vega-Modell chipseitig abgespeckt. Diese Grafikkarten sind AMDs lange erwartete Antwort auf die Geforce GTX 1080 und Geforce GTX 1070 - wer auf einen Herausforderer der GTX 1080 Ti und Titan X(p) gehofft hatte, wird enttäuscht.

    Die RX-Vega-Grafikkarten ergänzen AMDs Portfolio am oberen Ende, eine jede ist schneller und entsprechend teurer als die RX-500-Modelle mit Polaris-Architektur. Vega-Beschleuniger mit dem gleichnamigen Grafikchip sollen die beste Wahl zum Einsatz eines Freesync-Displays darstellen. Zwei "Veganer" müssen sich zum Launch bei der PC Games Hardware beweisen: die RX Vega 56 und die RX Vega 64 Air in der Limited Edition. Letztere trägt im Gegensatz zur normalen Variante eine silberne Kühlerabdeckung. Bedauerlicherweise ist die Limited-Edition nicht einzeln zu haben, sondern nur im Rahmen eines der "Radeon-Packs", welche AMD zum Vega-Launch anbietet. Der Kühler unterhalb der Haube ist identisch, Käufer der schwarzen RX Vega 64 müssen keine Leistungseinbußen befürchten.

    Ein Hinweis zum Testzeitraum, bevor wir starten: Zeit ist ein Luxus, welcher uns für die neuen Grafikprodukte aus dem Hause AMD nicht zuteil wurde. Aus diesem Grund präsentieren wir Ihnen zum Verkaufsstart am heutigen Tag nicht alle Spezialmessungen, welche wir vorgesehen haben, sondern zunächst die Basisbetrachtungen. Das Muster der Radeon RX Vega 64 erreichte uns am Mittwochmorgen (09.08.) gegen 11:30 Uhr, die Radeon RX Vega 56 erst am Donnerstagabend (10.08.) gegen 19 Uhr. Wir bitten zu entschuldigen, dass die Zeit trotz reichlich Vorarbeit sowie Nacht- und Wochenendschichten nicht genügte, um alle Aspekte der neuen Radeon-Grafikkarten zu beleuchten. Wir liefern die fehlenden Elemente sukzessive nach.

    06:47
    Radeon RX Vega 64 Limited Edition & Radeon RX Vega 56 im Video - Unboxing (fast) ohne Box

    Radeon RX Vega im Test: Spezifikationen      

    Nachdem die Radeon Vega Frontier Edition (Test) einen Vorgeschmack auf AMDs neue GPU-Architektur lieferte, ist mit den Produkten der "Radeon RX Vega"-Reihe das volle Programm verfügbar. "RX" steht seit der Polaris-Generation für die Spielermodelle. Vega entspricht der fünften Iteration des Graphics Core Next und stellt laut AMD die größte Architekturumstellung seit Tahiti/GCN 1.0 von Anfang 2012 dar. GCN Gen 5 alias GCN 1.4 führt neue Funktionen ins Feld, um die Schlagkraft pro Transistor/Fläche zu erhöhen und die Taktbarkeit signifikant zu verbessern. Ebenfalls neu ist Vegas Fähigkeit, FP16 und INT8 in doppelter beziehungsweise vierfacher Rate berechnen zu können, was vor allem Spiele-Entwicklern und in der KI-Programmierung neue Möglichkeiten durch neue Leistungsdimensionen eröffnet und von AMD als "Rapid Packed Math" vermarktet wird.

    Der 486 Quadratmillimeter, so die inzwischen offizielle AMD-Angabe, große Vega 10 ist das erste marktreife GCN-5-Produkt. Er wird im FinFET-Verfahren 14LPP gefertigt und beherbergt im Vollausbau 4.096 Shader-ALUs, 256 Textureinheiten sowie 64 Raster-Endstufen. Damit bietet der Chip genauso viele Rechenwerke wie Fiji, lässt sich dank der Architekturveränderung und neuen 14-nm-Fertigung jedoch wesentlich höher takten: Mit einem Maximalboost jenseits von 1.600 MHz zieht AMD zwar nicht ganz mit Nvidias Pascal gleich, überbietet den eigenen High-End-Vorgänger jedoch um mehr als 50 Prozent.

    Vega 10: GPU Block-Diagramm Vega 10: GPU Block-Diagramm Quelle: AMD Beim Speicher macht AMD hingegen einen Schritt nach vorn und einen zurück: Vega 10 kommuniziert über "nur" 2.048 Datenbahnen mit zwei HBM-Stapeln, bei Fiji waren's noch jeweils doppelt so viele. Auch hier setzt Vega auf Takt, anstelle gemächlicher 500 MHz arbeitet der Neuling mit 945 MHz und erreicht damit bei geringerer Verdrahtungskomplexität beinahe die Transferrate seines Vorgängers. Ursprünglich war für HBM gen 2 ein rundes Gigahertz avisiert, was 2 Gigatransfers pro Sekunde (GT/s) entspricht, final setzt Vega derzeit bestenfalls auf 1,89 GT/s. Über die Ursache herrscht Unklarheit, wobei die schwache Ausbeute der noch jungen HBM-gen2-Produktion als die wahrscheinlichste aber dennoch spekulative Erklärung herhalten muss - ein tieferes Taktziel erlaubt es, auch weniger potente, aber funktionsfähige Speicherchips zu installieren. Auch Nvidias GP100 sowie GV100, die ebenfalls auf diesen Speicherstandard setzen, reizen dessen Taktpotenzial nicht voll aus.

    HBM2 ist zwar flächenmäßig größer als sein Vorgänger, lässt sich jedoch wesentlich besser stapeln. Das ermöglicht einzelne Stacks mit je bis zu 8 GiByte Kapazität ("8-Hi"), wohingegen HBM gen1 auf je 1 GiByte limitiert war - der wohl größte Schwachpunkt der Fiji-Grafikkarten. Speichermangel ist bei HBM gen2 kein Thema, im Rahmen der Spezifikation und technischen Möglichkeiten sind Grafikkarten mit bis zu 32 GiByte (vier 8-Hi-Stacks an 4.096 Bit) möglich. Alle bisherigen Modelle der RX-Reihe bieten zwei Stapel à 4 GiByte, ergo 8 GiByte Gesamtkapazität auf - nur die bereits zuvor gestartete Frontier Edition protzt mit satten 16 GiByte.

    Vega 64 Liquid und Vega 64 Air: Unterschiede      

    Zum Start am 14. August wird es nur die Radeon RX Vega 64 geben, dafür jedoch in drei verschiedenen Versionen: als Liquid Cooled Edition, als Limited Edition und als Black. Nur die Erstgenannte kann, wie die Vega Frontier Edition Liquid, auf eine All-in-One-Flüssigkühlung zurückgreifen. Diese erlaubt es AMD, dem Modell die höchsten Einstellungen hinsichtlich Taktraten und Powerlimit auf dem Weg zu geben. So verfügt die Radeon RX Vega 64 LCE als einziges Modell über einen Maximalboost jenseits von 1.700 MHz; der mittlere Boost wird indessen mit 1.677 MHz angeben. Die Grafikkarte arbeitet mit einer Board Power von stattlichen 345 Watt, welche zwingend notwendig ist, um den GPU-Boost auch in fordernden Situationen über 1.600 MHz zu halten. Der starke Kühler sorgt dafür, dass die Abwärme dabei keinen Limitfaktor darstellt.

    Die Radeon RX Vega 64 in den verfügbaren "Air"-Versionen hat genau dieses Problem: Mit einem konventionellen Luftkühler ist eine Abwärme von 345 Watt kaum zu bändigen. AMD spezifiziert die Vega 64 Air daher mit einer Board Power von 295 Watt - das ist für einen Luftkühler immer noch eine Herausforderung, aber machbar. Was Taktraten und Power-Budget angeht, sind die Vega 64 Limited und Black identisch, der mittlere Boost soll 1.546 MHz betragen. Die Unterschiede betreffen lediglich die Kühlerhaube: Die Ltd. punktet mit einem edlen Anlitz aus gebürstetem Aluminium, während die Black optisch an das Referenzdesign der Radeon RX 480 erinnert, aber mehr Metall auffährt.

    'Air'-Familie vereint: Radeon Vega Frontier Edition (blau), Radeon RX Vega 64 Limited Edition (silber) und Radeon RX Vega 56 (schwarz) "Air"-Familie vereint: Radeon Vega Frontier Edition (blau), Radeon RX Vega 64 Limited Edition (silber) und Radeon RX Vega 56 (schwarz) Quelle: PC Games Hardware Die Radeon RX Vega 56 hat es nicht nötig, mittels Wasserkühlung an die Grenze des Machbaren getaktet zu werden. Stattdessen mimt sie die kleine Schwester der RX Vega 64 Black: Basierend auf dem, so scheint es, gleichen Kühler, wird sie mit geringeren Frequenzen und einem deutlich gesenkten Powerlimit spezifiziert. Ihre Board Power beträgt moderate 210 Watt, der mittlere Boost laut AMD 1.471 MHz. Weiterhin muss sie auf acht ihrer 64 Compute Units verzichten, was zu 3.584 aktiven (von 4.096 physikalisch vorhandenen) Shader-ALUs führt. Außerdem arbeitet ihr HBM nur mit 800 anstelle von 945 MHz (1,6 statt 1,89 Gigatransfers pro Sekunde).

    Die Anzahl der aktiven Compute Units erklärt AMDs Namensgebung. Wir schließen nicht aus, dass AMD sein Portfolio zu einem späteren Zeitpunkt mit einer 300-Euro-Lösung der Sorte "Radeon RX Vega 48" komplettiert, bei der stärker gestutzte Vega-10-GPUs gewinnbringend eingesetzt werden, anstatt sie aufgrund der Fertigungsdefekte in den Elektroschrott zu werfen. Die letzte AMD-Grafikkarte mit einem zur "LE"-Ausbaustufe degradierten High-End-Chip war die Radeon HD 7870 XT (Tahiti-GPU).

    Das Powerlimit und die Kühlung haben großen Einfluss auf die Endleistung der Vega-Grafikkarten. Behalten Sie diese Information bei der Deutung unserer Benchmarks im Hinterkopf - auch, wenn Sie unsere Werte mit denen von Kollegen vergleichen, die die Vega 64 Liquid getestet haben. Letztere kann bei gleichem Powerbudget höhere Boosts aus ihrem Kern pressen, da ihre Bauteile kälter bleiben und somit die Leckströme eingedämmt werden. Die zusätzlichen 50 Watt gegenüber der Vega 64 Air (Black/Limited) führen dazu, dass die LCE unserer Einschätzung nach immer zwischen 1.600 und 1.700 MHz operiert, was deutlich mehr ist als bei unserer Vega 64 Limited, welche unter Volllast sowohl von ihrem Powerbudget als auch von der Kühlleistung ausgebremst wird. Noch härter trifft es die Vega 56, hier führt der harte Einschnitt beim Wattbudget direkt zu einem wackligeren Boost. Dazu gleich mehr.

    GrafikkarteRadeon RX Vega 64 LiquidRadeon RX Vega 64 AirRadeon RX Vega 56 AirRadeon Vega Frontier AirRadeon R9 Fury XGeforce GTX 1080 TiGeforce GTX 1080Geforce GTX 1070
    CodenameVega 10 XTX A1Vega 10 XT A1Vega 10 XL A1Vega 10 XTX A1Fiji XTGP102-350-K1-A1GP104-400-A1GP104-300-A1
    DX-12-Feature-Level12_112_112_112_112_012_112_112_1
    Chipgröße (reiner Die)486 mm²486 mm²486 mm²486 mm²596 mm²471 mm² 314 mm²314 mm²
    Transistoren Grafikchip (Mio.)12.50012.50012.50012.5008.90012.0007.2007.200
    Shader-/SIMD-/Textureinheiten4.096/64/2564.096/64/2563.584/64/2244.096/64/2564.096/64/2563.584/28/224 2.560/20/1601.920/15/120
    Raster-Endstufen (ROPs)6464646464886464
    GPU-Basistakt (MHz)1.4061.2471.156UnbekanntUnbekannt1.4801.6071.506
    Typischer GPU-Boost (MHz)1.6771.5461.4711.3821.0501.5821.7331.683
    Maximaler GPU-Boost (MHz)1.7501.6301.5901.6001.050~1.900 **~1.900 **~1.900 **
    Rechenleistung SP/DP (Mio./s) *13.738/85912.665/79210.544/65911.321/7088.602/53811.340/354 8.873/2776.463/202
    Durchsatz Pixel/Texel (Mrd./s) *107,3/429,398,9/395,894,1/329,588,4/353,867,2/268,8141,7/354,1110,9/277,3101,0/202,0
    Speicheranbindung (Bit)2.0482.0482.0482.0484.096352256256
    Geschw. Grafikspeicher (GT/s)1,891,891,61,891,011,010,08,0
    SpeichertypHBM gen2HBM gen2HBM gen2HBM gen2HBM gen1GDDR5XGDDR5XGDDR5
    Speicherübertragung (GB/s)483,8483,8409,6483,8512,0484,0320,0256,0
    Übliche Speichermenge (MiB)8.1928.1928.19216.3844.09611.2648.1928.192
    PCI-Express-Stromanschlüsse2 × 8-polig2 × 8-polig2 × 8-polig2 × 8-polig2 × 8-poligje 1 × 6-/8-polig 1 × 8-polig1 × 8-polig
    Typische Leistungsaufnahme<345 Watt<295 Watt<210 Watt<300 Watt275 Watt<250 Watt <180 Watt<150 Watt

    Bemerkungen: *Anhand des typischen Boosts ** Von Grafikkarte zu Grafikkarte unterschiedlich, aber stets auf diesem Niveau

    HBCC und die virtuelle 32-GiByte-Vega      

    Für alle, die angesichts des fortgeschrittenen Jahres 2017 und der Beschränkung auf 8 GiByte die Nase rümpfen, hat AMD eine Antwort: den High-Bandwidth Cache Controller, kurz HBCC. Diese neue Bezeichnung des GPU-eigenen Speicher-Controllers soll seine neuen Funktionen betonen. Erstens versteht er sich nun auf HBM zweiter Generation, das erwähnten wir bereits. Zweitens - und das ist der Clou - kann Vega 10 den Hauptspeicher als erweitertes Ablagefach nutzen. Diese Idee ist keineswegs neu, jeder Grafikchip kann über die PCI-Express-Schnittstelle Daten aus dem System-RAM anfordern, kopieren und im lokalen Grafikspeicher einlagern. Dies geschieht jedoch verhältnismäßig grob, es müssen stets große Speicherbereiche am Stück übertragen werden, was Zeit und somit Leistung kostet ("Stalls"). Derartige Datenbewegungen werden daher so gut es geht vermieden.
    Vega 10: HBCC vs. Non-HBCC Vega 10: HBCC vs. Non-HBCC Quelle: AMD Vega 10 ist erstmals in der Lage, nur die tatsächlich benötigen Daten aus dem Hauptspeicher zu ziehen, sofern sie nicht im HBM vorliegen. Diese Segmente nennen sich Pages (Seiten) und sind wesentlich kleiner als die üblichen Speicherbereiche (Allokation). Damit das funktioniert, reserviert der Grafiktreiber einen Teil des Hauptspeichers als sogenanntes "HBCC Memory Segment", kurz HMS. Dessen Größe lässt sich relativ frei wählen - bei den PCGH vorliegenden Vega-Karten und unseren mit 32 GiByte RAM ausgestatteten Testsystemen bis zu 24 GiByte. Praktisch ist, dass das HMS als einheitlicher Pool erscheint (unified memory), Applikationen sehen folglich nicht 8 + X GiByte, sondern beispielsweise volle 32 GiByte. GPU und Treiber kümmern sich um die intelligente Verwaltung der Speicherressourcen, beispielsweise darum, dass häufig benötigte Daten im HBM verweilen und häufig verwendete Pakete aus dem RAM gezogen und danach lokal vorgehalten werden. Wir werden der Frage, ob eine Radeon RX Vega dadurch tatsächliche Vorteile gegenüber einer GTX 1080/1070 oder gar GTX 1080 Ti hat, später nachgehen.

    Auch was die DirectX-12-Kompatibilität angeht, ist Vega 10 fortschrittlich: Der Chip unterstützt das Feature-Level 12_1 und überbietet bei den optionalen Einzeldisziplinen Nvidias Pascal-Riege. Damit bietet Vega 10 neben Intels Prozessorgrafik von Skylake und Kaby Lake Entwicklern den größtmöglichen Funktionsumfang. Weitere Informationen zu GCN 1.5/Vega finden Sie in diesem Artikel: Vega Architektur: Next-Gen-Compute-Units, High-Bandwidth-Cache & mehr vorgestellt.

    Vega: Mehr Netto vom Butto dank DSBR      

    Neben erhöhter Brutto-Leistung soll Vega aber auch mehr Netto bieten. Erreicht wird dies, so AMD, unter anderem durch den Draw Stream Binning Rasterizer, welchen wir künftig mit DSBR abkürzen wollen. Dahinter steckt eine Fähigkeit, welche Nvidia beim Wechsel von Kepler auf Maxwell ebenfalls implementierte, darüber jedoch kein Wort verlor - obwohl man sich einig ist, dass dieses Feature zumindest für einen Teil des Effizienzzuwachses verantwortlich zeichnet.

    Kurz zum Hintergrund: Da die beste Arbeit die ist, die man komplett vermeiden kann, arbeiten Grafikchips mit einem Tiefenpuffer und vorgezogenen Tests verdeckter Objekte. Liegt beispielsweise eine Kiste hinter einem Haus, braucht diese nicht gezeichnet werden (ZCull), ebensowenig natürlich die Rückseite des Hauses (Backside Culling) oder Dinge, die (seitlich) außerhalb des Blickfeldes liegen (Frustum Culling). Diese beiden Techniken sind schon ziemlich alt und über die Jahre immer weiter verbessert worden. Doch je früher die Arbeit gespart werden kann, desto besser. Darum wird inwzischen auch Geometrie vorab verworfen, die nicht Teil des gerenderten Bildes ist. Doch um final entscheiden zu können, welche Bestandteile einer Szene sichtbar sind, muss diese (tiefen-) vollständig aufgebaut sein, denn nur so können die Z-Werte einzelner Objekte miteinander verglichen werden und der Grafikchip kann entscheiden, ob die oben genannte Kiste hinter dem Haus sichtbar ist. Das bedeutet, dass jeder Tiefenwert in einen Speicherbereich geschrieben werden muss - was wiederum viel Transferrate kosten kann.

    Hier setzt nun der DSBR an: Er unterteilt das Bild in kleine Kacheln, welche in den Level-2-Cache passen, und prüft für jede dieser Kacheln die Sichtbarkeit der Objekte. Der große Vorteil: Dadurch, dass alle Sichtbarkeitsprüfungen im L2-Cache ablaufen wird sehr viel Transferrate zum Speicher und damit auch gleichzeitig Energie eingespart. Die Größe der einzelnen Tiles ist vom Treiber konfigurierbar wie auch der komplette Einsatz des DSBR von Anwendung zu Anwendung oder API zu API unterschiedlich voreingestellt sein kann. In diesem Kontext verwundert es nicht, dass AMD den L2-Cache gegenüber Fiji von 2 auf 4 MiByte verdoppelt hat.

    Vegas Draw Stream Binning Rasterizer ist AMDs erste Implementierung des TBR-Prinzips, Fiji und Polaris bieten das Feature nicht. Folgende Architekturen werden das Prinzip aufgreifen und gewiss weiter verfeinern.

    Reklame: Die besten RX-Vega-64-Grafikkarten jetzt bei Alternate entdecken
    [PLUS] Vega-GPUs: RAM als erweiterter Grafikspeicher - HBCC im Retro-Test [PLUS] Vega-GPUs: RAM als erweiterter Grafikspeicher - HBCC im Retro-TestPCGH Plus: AMD bewarb seine Vega-GPUs mit einem besonderen Feature, das den Hauptspeicher effizient als Datenlager nutzbar machen sollte: den High Bandwidth Cache Controller. Ein Nachtest. Der Artikel stammt aus PC Games Hardware 08/2020.
    mehr ...
    zum Artikel
      • Von Gurdi Registrierte Benutzer
        AW: AMD Radeon RX Vega 64 und Vega RX 56 im Test: Heiße Vega?

        Zitat von DasUnding
        Zusammenfassung:
        -> VRAM überschreitung mit HBCC führt meist zu starken Rucklern z.B. Dishonored in ~4k
        -> Undervolting ist mehr ein Mythos als Realität (meist lässt sich das selbe Ergebnis mit Verschieben des Powersliders reproduzieren oder bei zu starker Abweichung davon ein Absturz konstruieren)
        -> Freesync und Framelimiter haben noch deutlich Wünsche offen
        In einigen Spielen funktioniert der HBCC durchaus gut.
        Undervolting geht Problemlos, man muss nur wissen wie.
        Freesync und Limiter funktionieren bei mir Einwandfrei.
      • Von DasUnding Registrierte Benutzer
        AW: AMD Radeon RX Vega 64 und Vega RX 56 im Test: Heiße Vega?

        Zitat von Gurdi
        Ich hab es in zwei Spielen versucht, aber die configs sind dann so heftig fordernd dass die Leistung massiv einbricht, ich kann keine spürbare Entlastung durch den HBCC bemerken. Was der HBCC gut zu managen scheint, sind leichte Übertretungen des Grafikspeichervolumens.

        Ansonsten ist HBCC gut für die Frametimes in den meisten spielen bei mir, kostet aber auch meist ein wenig Leistung im Promillebereich.
        Als Speicherersatz taugt das Feature aber definitiv nicht.
        Kann ich exakt so bestätigen. Ein weiteres Problem möchte ich anführen: Man sollte, wenn man es verwendet die kleinste Stufe einstellen. Wenn es deutliche Übertretungen im VRAM kommt (z.B. 11GB), kommt es zu erheblichen Speicherrucklern. Wenn es bei manchen Spielen auftritt, sollte man es vielleicht sogar deaktivieren -oft passt die Spiellogik das Texturstreaming dem Speicherlimit an und es kommt zu keinen Rucklern und mehr Streaming, aber die Stocker gehen weg.

        Wenn es nur leichte übetretungen gibt (~200MB oder sowas), scheint es gut zu funktionieren, was wohl der PCI_E Bandbreite geschuldet ist -theoretisch geht da ja auch nicht viel.

        Übertakten und Spannungsreduzierung kann man eigentlich vergessen, dafür ist alles zu straff eingestellt- wie auch bei den Modellen davor (Fury X 390x usw.) - eigentlich ist alles, was von der Standardkurve abweicht nicht stabil (>12 Monate Praxistests). Beim Speicher scheint etwas zu gehen, doch inwiefern das stabil ist, kann ich noch nicht abschließen sagen. Beim Auflösungswechsel scheint es noch Crashes zu geben -also eher doch nicht stabil aber immerhin deutlich mehr Performance mit 1040MHz zu 945MHz. Ein Benchmark läuft auch mit 1120MHz durch, aber stabil ist alles Andere... ähnliches gilt für diesen Undervolting Mythos...

        Zu Fessync habe ich auch noch was zu sage: warum muss die Handhabung von FreeSync in der Realität so ******* sein. Wenn ich z.B. eine Bandbreite von (40-60)Hz FreeSync habe und ich Vsync an verwende und auch 60FPS anliegen, warum muss dann der Inputlag schlechter sein als mit 57 FPS cap? Kann das nicht der Treiber machen? Wieso muss ich externe Programme verwenden um den Framecap unterhalb von 60 Hz zu haben, damit Freesync richtig funktioniert! Warum kann es nicht der Treiber regeln? Und warum müssen die internen Framelimiter im Treiber so ******* sein. Wie kann es denn bitte sein, dass der interne Framelimiter mehr Inputlag erzeugt als ich mit Freesync gewinne -das ist doch *******. Wenn ich das mit externen Programmen besser einstellen kann, dann könnt ihr das in 2 Stunden programmieren und alle Leute beglücken, wie wäre das?

        Zusammenfassung:
        -> VRAM überschreitung mit HBCC führt meist zu starken Rucklern z.B. Dishonored in ~4k
        -> Undervolting ist mehr ein Mythos als Realität (meist lässt sich das selbe Ergebnis mit Verschieben des Powersliders reproduzieren oder bei zu starker Abweichung davon ein Absturz konstruieren)
        -> Freesync und Framelimiter haben noch deutlich Wünsche offen
      • Von Gurdi Registrierte Benutzer
        AW: AMD Radeon RX Vega 64 und Vega RX 56 im Test: Heiße Vega?

        Ich hab es in zwei Spielen versucht, aber die configs sind dann so heftig fordernd dass die Leistung massiv einbricht, ich kann keine spürbare Entlastung durch den HBCC bemerken. Was der HBCC gut zu managen scheint, sind leichte Übertretungen des Grafikspeichervolumens.

        Ansonsten ist HBCC gut für die Frametimes in den meisten spielen bei mir, kostet aber auch meist ein wenig Leistung im Promillebereich.
        Als Speicherersatz taugt das Feature aber definitiv nicht.
      • Von DARPA Registrierte Benutzer
        AW: AMD Radeon RX Vega 64 und Vega RX 56 im Test: Heiße Vega?

        Wie sind denn inzwischen die Erfahrungen mit HBCC? Hilft es tatsächlich im VRAM Limit?
      • Von Gurdi Registrierte Benutzer
        AW: AMD Radeon RX Vega 64 und Vega RX 56 im Test: Heiße Vega?

        Zitat von X-CosmicBlue
        Was ist eigentlich inzwischen aus dem Draw Stream Binning Rasterizer geworden? Ist das inzwischen aktiv?
        Soll aktiv sein, funktioniert aber längst nicht so aktiv sein wie das Pendant bei Nvidia. Ich vermute das Vega immer noch nicht in der Lage ist, Bilder die nichts sichtbar sind kurzfristig zu verwerfen.
  • Print / Abo
    Apps
    PCGH Magazin 12/2021 PC Games 11/2021 PC Games MMore 10/2021 play5 12/2021 Games Aktuell 11/2021
    PCGH Magazin 12/2021 PC Games 11/2021 PC Games MMORE Computec Kiosk