Online-Abo
  • Login
  • Registrieren
Games World
  • Die größten Flops von Ati und Nvidia

    Fehlschläge, Flops oder auch Fails können immer einmal passieren. Schlimm wird es allerdings, wenn ein mit dreistelligem Millionenaufwand entwickeltes Produkt von einem solchen Fail betroffen ist. PC Games Hardware stellt Ihnen die unserer Meinung nach größten (Hardware-) Flops von AMD und Nvidia vor.

    Hardware-Flops sollten Sie in diesem Fall nicht als Angabe der Rechenleistung eines Prozessors oder einer Grafikkarte missverstehen - auch wenn FLOPS (großgeschrieben) in letzter Zeit gern als MHz- oder Pipeline-Ersatz herhalten muss. In unserem Falle sind Flops die Fehlschläge, welche die beiden Unternehmen AMD/Ati und Nvidia im Laufe der letzten Jahre verkraften mussten - egal ob es sich dabei um Fehlplanungen/-einschätzungen des Marktes, grobe Fehler bei der begleitenden Software oder aber schlicht Fehlschläge beim physikalischen Design der Hardware handelt. Vielleicht interessieren Sie auch unsere beiden thematisch verwandten Artikel zu den jeweils wichtigsten Grafikkarten (ob Top oder Flop) von AMD/Ati und Nvidia.

    Natürlich basieren einige Passagen dieses Artikels auf unseren Einschätzungen, denn keiner der beiden großen Hersteller wird öffentlich zugeben, ein Produkt zu verkaufen oder verkauft zu haben, welches in die Kategorie "Fail" gehört.

    Nvidia NV-1/-2
    Den Anfang macht Nvidia mit dem Erstlingswerk NV-1. Der NV-1 war ein wahres Multitalent - neben 2D-Grafik brachte er auch eine Soundkarte samt Gameport-Anschluss mit. Der Multifunktionschip bot bereits 1995 3D-Beschleunigung und war einer der ersten Chips dieser Gattung, welche für den sogenannten Consumer-Markt, also außerhalb professioneller 3D-Beschleunigung, entwickelt worden war. Dummerweise war der NV 1 nicht zum gerade aufkommenden DirectX-Standard kompatibel, da er als geometrische Basis nicht auf Dreiecke, sondern auf bikubische Bezier-Patches setzte. Diese Fehlkalkulation verhinderte wirksam jeglichen Markterfolg und sorgte dafür, dass nur zwei angepasste Spiele die Fähigkeiten nutzen konnten (Segas Virtua Fighter und Panzer Dragoon). In Verbindung mit dem nie erschienenen NV2, welcher für eine Konsole gedacht war, führte das beinahe zum vorzeitigen Ableben der Firma Nvidia.

    Ati Mach-Reihe
    In den Anfangszeiten der 3D-Beschleunigung war Ati mit über 10 Jahren Markterfahrung bereits ein alter Hase im Geschäft. Die 3D-Technologie war jedoch auch für die Kanadier ungewohntes Terrain und so tastete man sich zunächst vorsichtig mit dem großen Zeh aufs dünne Eis vor. Ähnlich hielten es im Übrigen die anderen etablierten Windows-Beschleuniger zum Beispiel von Matrox und S3 Graphics. Die Folge davon war eine derart schwächliche 3D-Beschleunigung, dass auf allen Kombikarten der ersten Generation Spiele mit aktivierter 3D-Beschleunigung oft langsamer liefen als mit CPU-basiertem Software-Rendering. Der Grund: Texturfilterung oder Perspektivenkorrektur wurden als zusätzliche 3D-Features aktiviert, aber die Chips waren zu langsam, um hier für eine Beschleunigung zu sorgen, wenn sie mit dieser Mehrarbeit belastet waren.

    Nicht nur Ati verschlief mit den Mach32- und Mach64-Grafikkarten den Trend zu 3D; auch Matrox mit der trotz allem sehr beliebten Mystique oder S3 Graphics mit ihrer berüchtigten 3D-Entschleuniger-Reihe "Virge" fielen beinahe dem 3D-Trend zum Opfer.

    VGA-Flops: Ati Rage Fury Maxx VGA-Flops: Ati Rage Fury Maxx Quelle: C. Spille Riva TNT und Ati Rage Fury Maxx
    Nvidia wollte ursprünglich mit den Riva TNT die Voodoo 2 "killen". Die angepeilten Takte wurden aber erst mit dem Nachfolger TNT2 erreicht. Dank des oben beschriebenen Sammel-Fails der Platzhirsche konnte sich Nvidia aber etablieren und mit dem TNT2 eine Führungsposition einnehmen. Im Spätsommer 1999 stellten die Kalifornier dann den damals revolutionären, aber bandbreitenverhungerten Geforce 256 vor. Ati stellte dem mangels fertigen TnL-Chips eine Karte entgegen, welche zwei der bewährten Rage-128-Pro-Chips mittels AFR-Verfahren im Tandem arbeiten ließ. Das Konzept klang auf dem Papier durchaus überzeugend: Jeder Chips sollte ein abwechselnd ein Bild berechnen und darstellen - kommt Ihnen das bekannt vor? :) Auf eben jenes, also das geduldige Papier, konnte man auch die 64 Megabyte Speicher aufdrucken, ohne jedoch zu erwähnen, dass effektiv, wie beim heutigen AFR auch, nur die Hälfte davon nutzbar war.

    Da die Rage-128-Pro-Chips dank bandbreitenschonender Maßnahmen wie zum Beispiel ihres Textur-Caches beim 32-Bit-Rendering deutlich weniger stark an Leistung verloren als die konkurrienden Nvidia-Chips und überdies auch DX6-Texturkompression und Hardware-Beschleunigung für DVD-Decoding anboten, war die Karte einer Geforce 256 in hohen Auflösungen und mit 32-Bit-Rendering zum Teil deutlich überlegen. Es gab nur ein klitzekleines Problem: Die Karte funktionierte im Dual-Modus lediglich unter der zum Release vorherrschenden Spielplattform Windows 9x - und litt auch dort unter Treiberproblemen. Umsteiger auf Windows 2000 und später auf XP hatten die sprichwörtliche Arschkarte gezogen.

    VGA-Flops: Radeon 8500 128MB BBA VGA-Flops: Radeon 8500 128MB BBA Quelle: C. Spille Geteilte Meinung: Ati Radeon 8500
    Während die einen den R200-Chip als gelungenen Anschluss Atis an die bis dahin marktbeherrschende Geforce-Riege, welche er aus technischer Sicht mit Unterstützung für Pixel-Shader 1.4 sogar überholte, betrachten, dürfte man bei Ati eher traurig über das verschenkte Potenzial gewesen sein - und das in mehrfacher Hinsicht. Denn zum einen war der R200-Chip wieder einmal verspätet, sodass die notorisch überforderte Treiberabteilung zur Veröffentlichung noch einiges an ungenutztem Potenzial brachliegen lassen musste. Weniger euphemisch ausgedrückt: Was der Performance zum Teil fehlte, machte der Bugreichtum auch nicht wieder wett. Trotzdem konnte die Radeon 8500 der Geforce 3 oft nicht nur Paroli bieten, sondern diese oft auch überholen. Besonders stark war der Balkenlängenvorsprung, wenn anisotrope Texturfilterung aktiviert wurde. Diese war zwar rasend schnell, bot aber dank starker Winkelabhängigkeit und der Beschränkung auf bilinearen Grundfiilter nur eine sehr mäßige Bildqualität.

    Schaltete der User Kantenglättung ein, stürzte die Performance des R200 jedoch in ungeahnte Tiefen. Der Grund: Aufgrund von Problemen beim Chip-Design funktionierte der eigentlich geplante Multisampling-Modus mit bis zu 6x SGMSAA (wie es später die Radeon 9700 bieten sollte) nur in Ausnahmefällen korrekt und so musste der Chip das aufwendige Super-Sampling-Verfahren (und das auch noch mit einem qualitätsminderndem Ordered-Grid-Muster) anwenden.

    VGA-Flops: Geforce FX 5800 Ultra (PNY) VGA-Flops: Geforce FX 5800 Ultra (PNY) Quelle: C. Spille Der Fail-Klassiker: Geforce FX
    Was genau Nvidia beim Design der NV3x-Reihe geritten hat, kann wahrscheinlich niemand so genau sagen. Ob es "something hallucinogenic" (etwas Halluzinogenes) war, ob es "nur" ein überraschend starker Konkurrenzchip war oder ob - Verschwörungstheoretiker aufgehorcht - es wirklich etwas mit dem Streit mit Microsoft über die Lizenzgebühren für die Xbox-Chips zu tun hatte, wird man wohl in letzter Instanz nie erfahren.

    Fest steht jedenfalls, dass die Geforce FX enorme Probleme hatte, sobald sie ihre DirectX-9-Shader-Leistung in die Praxis umsetzen sollte. In manchen Fällen kam das Spitzenmodell, die Geforce FX 5800 Ultra, so grade eben mit der Radeon 9600 Pro mit - AMDs preisgünstiger Mittelklasse-Karte. Damit diese bahnbrechende Leistung möglich wurde, musste Nvidia die FX 5800 Ultra auf bis dato nicht gekannte Taktraten für Grafikkarten prügeln: 500 MHz für den NV30-Chip und ebenfalls 500 MHz für das hitzköpfige GDDR2-RAM.

    Dazu erzeugten viele Nvidia-Gebläse, besonders auf der FX 5800 Ultra, eine unheimliche Geräuschkulisse. Nicht zu Unrecht war die besagte Karte hönisch als "Der Fön" (oder im englischen Sprachraum: Dustbuster) verschrien. Selbst Nvidia war sich nicht zu schade, in einem Video über die Lautstärke herzuziehen (nachdem das das gesamte Internet bereits vorgemacht hatte). Um wenigstens einen "Achtungserfolg" erringen zu können, optimierten Nvidias Treiberentwickler für den damals aktuellen 3DMark03 ein wenig zu heftig, sodass es findigen Spezialisten schnell auffiel, wieviel schneller die Geforce-FX-Karten speziell im DX9-Test Mother Nature auf einmal war. Die nachfolgende Cheating-Schlammschlacht trug ebenfalls nicht gerade zum guten Ruf der Geforce-FX-Reihe bei.

    VGA-Flops: Radeon HD 2900 XT (Sapphire) VGA-Flops: Radeon HD 2900 XT (Sapphire) Quelle: C. Spille Radeon HD 2900: R600
    Was für Nvidia der NV30 war für Ati der R600. Eine Fehleinschätzung des Marktes (durchgehende 64-Bit-Pipeline für HDR-Rendering, 512-Bit-Speicherinterface) zog im großen Umfang ausfallende Funktionseinheiten nach sich, von denen wiederum nur wenige im Chip untergebracht werden konnten. Der zweite Faktor war der problematische 80HS-Prozess, welcher die Taktfähigkeit des R600 einschränkte und den Stromverbrauch in die Höhe trieb. Nebenbei sorgte er auch noch für weitere Verzögerungen, sodass im Nachhinein ein R600 im dann auch verfügbaren 65nm-Prozess die bessere Wahl gewesen wäre. Als Genickbruch für die HD-2000-Reihe (und in eingeschränktem Maße für die HD 3000) erwies sich jedoch die oft ungenügende Leistung mit aktivierter Kantenglättung. Waren AA und AF aktiv, fiel die HD 2900 XT trotz höheren Taktes das ein oder andere Mal sogar hinter ihre eigene Vorgängerin, die X1950 XTX, zurück. Der (inoffizielle!) Grund: Die ROP-Hardware war nicht in der Form zu gebrauchen, wie es im Entwurf des Chips vorgesehen war, und so mussten für viele FSAA-Operationen die bis zu 320 Shader-ALUs herhalten und AMD den teuren HD-2900-Chip als Mittelklasse-Karte preislich gegen die Geforce 8800 GTS positionieren. Weitere gemeine Kommentare zu Werbeparolen wie "A perfect ten" (übertragend: Volle Punktzahl) ersparen wir uns an dieser Stelle.

    AMDs Ingenieursteam vollbrachte mit der folgenden, neuen Generation, der HD-4000-Reihe eine kleine technische Meisterleistung und konnte hier - auch dank AA-Resolve in den ROPs - erstmals zeigen, wieviel Potenzial eigentlich in der R600-Architektur steckte.

    Geiz ist... ungeil: Bumpgate
    Ein Flop ganz anderer Art ereilte Nvidia Mitte 2008. Der von Charlie Demerjian an die Öffentlichkeit getragene - böse Zungen behaupten, er habe Tipps aus der Industrie bekommen - sogenannte Bumpgate-Skandal kostete die Firma hunderte Millionen Dollar. Hintergrund waren Sparmaßnahmen beim Lötmaterial der Verbindung von GPU und Substrat, welches bei starken Temperaturschwankungen Probleme bekommen konnte. Mehrfach musste Nvidia Großkunden wie Apple besänftigen und Rückstellungen in den Quartalszahlen ausweisen, um potenzielle Schadenersatzforderungen oder gütliche Einigungen mit seinen Kunden zu finanzieren. Betroffen waren zunächst Mittelklasse-Chips in Notebooks, später angeblich auch Desktop-Modelle. Wobei hier die Grenzen verschwimmen, denn eine Zeitlang wurde nahezu jeder Defekt genau dieser einen Ursache zugeschrieben.

    Hard- und Software-Flops: Fazit
    Natürlich gibt es noch andere Flops, wie den bis heute nicht erschienenen R400 von Ati, welcher in Teilen in den DX10-GPUs und dem Xbox-360-Chip weiterlebt, oder den G98-Einsteigerchip, von dem angeblich nie ein funktionsfähiges Exemplar existierte, obwohl Nvidias Marketing die Einführung bereits vorbereitet hatte und dessen Leichname als Schlüsselanhänger versilbert wurden. Auch über den Pentium-IV-Prozessor könnte man ebenso wie über AMD Phenom der ersten Generation sicherlich viel schreiben. Unvergessen bleibt auch der FDIV-Bug im Original-Pentium.

    Was ist Ihr persönlicher Hard- oder Software-Flop? Haben wir etwas Entscheidendes vergessen, was Sie gern in der Liste gehabt hätten? Nutzen Sie die Kommentarfunktion und schreiben Sie uns Ihre Meinung.

    Wissenswert: Mehr Informationen zum Thema finden Sie in:
    Grafikkarten-Rangliste 2016: 32 Radeon- und Geforce-GPUs im Benchmarkvergleich [Oktober]
  • Stellenmarkt

    Es gibt 53 Kommentare zum Artikel
    Von bschicht86
    2900XT -> 512MB Variante1024MB Variante mal ganz zu Anfang als 2900XTX zu Vermarkten versucht...
    Von Havenger
    nicht ganz ! 2004 sollte es tatsächlich ein windows longhorn geben das sah einem der frühen builds von vista sehr…
    Von Birdy84
    Stimmt, ATI hatte die X1900XTX sehr schnell nach der X1800XT nach gelegt. Zu dem Zeitpunkt gab es echt nur die 7800GTX…
    Von riedochs
    Mal sehen was uns an Flops noch in der Zukunft erwartet. Bisher hatte ich immer Glueck.
    Von Two-Face
    Ähm, die GeForce 7900GTX war das Konkurrenzprodukt zur Radeon X1900XTXDie X1900XT war für die 7800GTX 512 bestimmt,…
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
698221
Grafikkarten
Hard- und Software-Fails
Fehlschläge, Flops oder auch Fails können immer einmal passieren. Schlimm wird es allerdings, wenn ein mit dreistelligem Millionenaufwand entwickeltes Produkt von einem solchen Fail betroffen ist. PC Games Hardware stellt Ihnen die unserer Meinung nach größten (Hardware-) Flops von AMD und Nvidia vor.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Hard-und-Software-Fails-698221/
27.10.2009
http://www.pcgameshardware.de/screenshots/medium/2008/11/01_Nvidia_NV1.jpg
amd,ati
specials