Online-Abo
  • Login
  • Registrieren
Games World
  • Von Voodoozauber bis Effizienzwunder: Die 10 ungewöhnlichsten Grafikkarten aller Zeiten

    Welche Grafikkarte ist auf ihre Art und Weise die ungewöhnlichste? Egal ob Technik, Kühlung, Entwicklungsdauer oder sonstige Faktoren - PC Games Hardware blickt mehr als eine Dekade zurück. Wir präsentieren die 10 ungewöhnlichsten Grafikkarten aller Zeiten.

    Alternativtext


    Seit es 3D-Beschleuniger gibt, erreichen den Markt immer wieder ungewöhnliche Exemplare - oder aber sie befanden sich zumindest in der Entwicklung. Modelle wie 3Dfx' Voodoo Graphics, die Geforce FX 5800 Ultra oder 8800 GTX, die Radeon HD 2900 XT und "Fermi" fallen aus dem Raster: Sie sind laut, stromhungrig oder einfach nur viel zu spät dran und beeinflussen teils noch Jahre nach ihrem Erscheinen den Markt, die Entwicklung neuer Produkte oder werden in Foren heiß diskutiert. PC Games Hardware kürt die zehn ungewöhnlichsten Grafikkarten der letzten 15 Jahre.

    Grafikzauber? Nein, Voodoo!
    3Dfx (ja, mit großem "D") war Nvidia und Co. mit seinem Voodoo Graphics weit voraus. Nicht umsonst gab Epics Tim Sweeney vor einigen Jahren zu Protokoll: "Vor dem Voodoo war 3D-Beschleunigung größtenteils ein Witz." Statt ungefilterter Texturen sowie niedriger Bildraten und Auflösungen zauberten die Voodoo-Chips für damalige Verhältnisse hochauflösende 640 x 480 Bildpunkte butterweich mit über 30 Bildern pro Sekunde auf den Bildschirm. Die sehr ressourcenschonende Programmierschnittstelle Glide motivierte viele Spieleentwickler, ihre Engines um 3dfx-Hardware-Unterstützung zu erweitern, um Spielen neuen Optik-Glanz zu verleihen. Mit dem "VSA-100"-Chip schaffte es 3dfx (mittlerweile mit kleinem "d") die Konkurrenz hinter sich zu lassen, allerdings Monate zu spät. Der Kauf von "Gigapixel" läutet schließlich das Ende von 3dfx ein, Nvidia kaufte die 3D-Pioniere auf. Das schnellste 3dfx-Modell, die "Göttin" Voodooo 5 6000, mit gleich vier VSA-100, einem externen Netzteil ("Voodoo Volts") und 70 Watt Leistungsaufnahme schaffte es nie in den Handel. Die wenigen funktionieren Karten haben daher Kultstatus und wechseln gelegentlich für weit über 1.000 Euro den Besitzer.

    May the (Ge-)Force be with you
    Wäre die Geschichte etwas anders verlaufen, hätte Nvidia 3dfx möglicherweise nie aufgekauft: NV1 brach den "Grünen" anno 1995 fast das Genick. Der Chip vertraute nicht auf Direct3D oder OpenGL (ersteres nur in Software), sondern auf NURBS (Non-Uniform Rational B-Spline) und stand damit alleine auf weiter Flur. Sein Nachfolger, der NV2, erblickte nie das Licht der Welt - erst die Riva 128 brachte den Durchbruch. Es folgen gelungene Chips wie der der Geforce 3 (Pixel-Shader!) und die flottere Variante alias Geforce 4. Die fünfte Generation sollte mit CineFX und dem NV30 die Konkurrenz das Fürchten lehren - gelungen ist ihr das aber vor allem durch die extrem laute Kühlung. Atis Radeon 9700 Pro hatte gezeigt, was eine DirectX-9-Grafikkarte leisten kann, die Geforce FX 5800 Ultra aber ist nicht durch ihre Performance zur Legende geworden, sondern durch ihre ungewöhnlich hohe Lautstärke: Die "Flow FX" war so ohrenbetäubend, dass sie der FX den Namen "Dustbuster" ("Föhn") eingebracht hat. Die DX9-Leistung dagegen war bescheiden. Valve stufte die FX-Modelle in Half-Life 2 gar auf den optisch schlechteren DirectX-8.1-Pfad zurück, damit die Bildrate akzeptabel war.

    Bildergalerie: Grafikkarten
    Bild 1-3
    Klicken Sie auf ein Bild, um die Bilderstrecke zu starten! (11 Bilder)

    Die beiden nachfolgenden Generationen verbesserte Nvidia, die achte dagegen basierte auf einer komplett neuen Architektur. Der G80-Chip war DirectX-10-fähig, besaß Unified Shader und ist der Konkurrenz in Sachen Bildqualität bis heute voraus. Mehr noch: Die Geforce 8800 GTX gilt zurecht als eine der besten Grafikkarten, die es jemals gab - selbst heute, vier Jahre nach dem Release, bietet sie fast alle Features aktueller Geforce-Modelle und ist (mit Einschränkungen) noch eine brauchbare Karte für Spieler. Dies ist ebenso ungewöhnlich wie die Verlustleistung, 80 Watt im Leerlauf sind extrem viel. Ebenfalls damals ein Novum: Die Metallkappe ("IHS") über dem Die und der NVIO-Chip für bestimmte 2D-Funktionen. Die Geforce 8800 GTX im Aufmacher wurde zugunsten besserer Temperaturen "geköpft", der Chip liegt frei.

    Ob Nvidia der Erfolg zu Kopf gestiegen ist oder andere Probleme wie der Yield Schuld sind, Fakt ist: Der GF100 aka Fermi kam in Form der Geforce GTX 480 viel zu spät auf den Markt und konnte nicht überzeugen. Zwar schafft es die Karte trotz teil-deaktivierter GPU an AMDs Radeon HD 5870 vorbei, Leistungsaufnahme und Lautstärke aber lassen Erinnerungen an die FX wach werden. Weitaus stromfressender ist übrigens nur eine einzige Geforce und die ist an Ungewöhnlichkeit kaum zu überbieten: Wo eine Göttin, da ist auch ein Gott - Asus verheiratet für die Mars zwei Geforce GTX 285 mit je 2 GiByte Speicher auf zwei kombinierten PCBs. Die ehemals schnellste Karte der Welt ist chronisch instabil und throttelt selbst in Spielen, die Leistungsaufnahme erreicht bis zu 470 Watt. Für LN2-Overclocker war die Karte ein gefundenes Fressen zum Weltrekorde knacken, alle andere schüttelten den Kopf.

    Mikroruckler und das R600-Desaster
    Wer hat's erfunden? Nein, nicht die Schweizer, sondern die Kanadier von Ati. Deren Rage Fury Maxx koppelte zwei Rage Pro auf einer Platine, diese arbeiteten im neuen AFR-Verfahren (Alternate Frame Rendering). Mikroruckler waren damals noch kein Thema, erst mit dem Voranschreiten der Engines und der Render-Techniken ist AFR zu dem Problemkind geworden, als welches wir es heute kennen. Die Rage Fury Maxx hatte aber ohnehin andere Sorgen, etwa das Fehlen von Hardware-T&L und Treibern für Windows XP (nur eine GPU renderte). Über Jahre hinweg gelangen Ati gute Karten und große Würfe wie die Radeon 9700 Pro, erst der stark verspätete R600 brachte die Wende.

    Auch hier standen wie bei Nvidias G80 DirectX 10 und Unified Shader auf dem Plan, die 64 VLIW-ALUs (als 5-Vecs ausgelegt) erreichten theoretisch sehr viele GLOPS. In der Praxis erwies sich die Radeon HD 2900 XT aber als stromfressender Schreihals, Probleme mit den ROPs sorgten für niedrige Leistung mit aktiver Kantenglättung und das Speicherinterface war viel zu groß dimensioniert - kurz: Ati hinkte Nvidias Geforce 8800 GTX weit hinterher. Ungewöhnlich waren nicht nur die erstmalig eingesetzten digitalen (und hitzigen) Spannungswandler und die schlechte Performance, sondern vor allem die Lehren, die Ati und später AMD aus dem R600 zogen. Über mehrere Generationen hinweg (RV670 und RV770) entwickelten die Ingenieure aus dem gefloppten R600 den Cypress ("RV870") - welcher in Form der Radeon HD 5870 nicht nur die erste DirectX-11-Karte der Welt war, sondern sich zudem rühmen darf, auf den Pfaden der Geforce 8800 GTX zu wandeln.

    PowerVRs Kyro und der TBDR
    Manchen dürfte der Name PowerVR noch geläufig sein. Videologic, deren Neon250 zum Glück nicht das Todesurteil war, brachten 2000 noch eine bemerkenswerte Lösung auf den Markt: die Kyro. Dieser Chip blieb zwar kommerziell relativ erfolglos und brachte mit gerade mal zwei Pixel-Pipelines und 115 Megahertz auf den ersten Blick schwache Eckdaten auf die Fps-Waage. Doch mit 64 MiB SDR-RAM ausgestattet, nutzte der Kyro eine konsequente Weiterenticklung der bereits in früheren Power-VR-Produkten zum Einsatz gekommenen Deferred-Rendering-Techniken. Diese wurde durch das kachelbasierte Renderingkonzept nochmals verbessert.

    Im Gegensatz zu sogenannten Immediat-Mode-Renderern (allen anderen damals aktuellen Chips) sammelt ein TBDR (Tile-Based-Deferred-Renderer) vom Schlage eines Kyro alle Informationen, welche für ein Bild benötigt werden, in einem Puffer. Danach wird das komplette Bild von der Bildschirmauflösung aus in (kleine) Kacheln zerlegt und diese werden einzeln gerendert. Durch die Zerlegung passen sämtliche zu einer Kachel gehörenden Tiefeninformationen in einen extrem schnellen Zwischenspeicher und die Bildoperationen kosten keine weitere Bandbreite zum VRAM (außer dem Zurückschreiben der fix und fertigen Kachel in den Framebuffer). Außerdem wird eine vorgezogene Tiefenanalyse vorgenommen, sodass der Chip auch wirklich nur die Pixel berechnen muss, die hinterher auch sichtbar sind - das war damals eine kleine Revolution und der Außenseiter Kyro konnte so ein ums andere Mal selbst die übermächtig erscheinende Geforce 2 ins Schwitzen bringen.

    Nach der kaum bekannten Kyro konnte Power VR mit der taktseitig deutlich beschleunigten Kyro II im Jahre 2001 einen weiteren Achtungserfolg hinlegen. Die mit 175 MHz taktende Karte wurde unter anderem von Videologic, Hercules und Innovision eingesetzt und konnte ein Titeln ohne T&L-Unterstützung oder mit hoher Texturlast und Overdraw endlich auch eine Geforce 2 schlagen - manchmal sogar die Geforce 3. Bis auf einen etwas größeren Cache, welcher der gestiegenen Dreiecksmenge eines durchschnittlichen Spiels geschuldet war, hat Power VR keine größeren Veränderungen vorgenommen - wozu auch? Heute rechnen Power-VR-Chips in Handys von Apple & Co.

    Und was gab es sonst noch?
    In den Top 10 nicht zu finden, aber mehr als nur eine Erwähnung wert: Die Ati Radeon 9700 Pro auf Basis des R300 war die erste DirectX-9-Grafikarte der Welt. Ebenfalls neu war die enorme Leistung bei aktiver Kantenglättung und anisotroper Filterung. Der R300 machte AA und AF erst richtig populär, das sechsfache SGMSAA war jahrelang state of the art - und dank HyperZ sowie der hohen Bandbreite auch tatsächlich nutzbar. Tech-Demos wie "Rendering with Natural Light" veranschaulichten zudem das Potenzial von DirectX 9, selbst John Carmack zeigte Doom III auf einer Radeon 9700 Pro.

    Ein Jahr (2003) später erschien XGIs erster Grafikchip, der Volari V8. Zwei dieser Chips rechneten per "Bit Fluent Protocol"-Verfahren (AFR-basiert) zusammen auf der Volari V8 Duo. Die Karte sollte Nvidi und Ati im High-End-Segment Konkurrenz machen, floppte aber aufgrund diverser Faktoren. Abgesehen davon, dass BFP oft nicht funktionierte, wie es sollte, litt die Volari V8 Duo an nicht vorhandener Kantenglättung und ebenfalls nicht vorhandener anisotroper Filterung. Stattdessen gab es einen Blur-Filter und eine LOD-Verschiebung ins Negative, was angesichts der Radeon 9700 Pro gerade zu lächerlich anmutete.

    Wissenswert: Mehr Informationen zum Thema finden Sie in:
    AMD Radeon Treiber Download: Crimson Relive Edition 16.12.1
  • Stellenmarkt

    Es gibt 26 Kommentare zum Artikel
    Von C10H15N
    Am stärksten beeindruckend: Asus MarsEine Karte für 1000€, die bereits herstellerseitig überhitzt-ist schlichtweg der…
    Von sentinel1
    PowerVR hätte es damals fast geschafft, das Marketing war TOP. Der Chip war vermutlich zu lahm und die Spieleschmieden…
    Von Gast20150401
    Schade meine alte Voodoo 2 und Ati Rage 128 sind nicht dabei....Aber egal......die voodoo2 war mal ne coole sache.
    Von Brother Kador
    aahh, meine gute alte Bfg 8800GTX!!! hab sie mir kurz nachm Release geholt , nov.2006 [& 600 € aua], und wär sie…
    Von Edelbock
    Hab auch noch ne 8800 Ultra von Asus die mal in meinem Rechner drinne war... Die gute Karte hat mich nich viel…
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
766385
Grafikkarten
Von Voodoozauber bis Effizienzwunder: Die 10 ungewöhnlichsten Grafikkarten aller Zeiten
Welche Grafikkarte ist auf ihre Art und Weise die ungewöhnlichste? Egal ob Technik, Kühlung, Entwicklungsdauer oder sonstige Faktoren - PC Games Hardware blickt mehr als eine Dekade zurück. Wir präsentieren die 10 ungewöhnlichsten Grafikkarten aller Zeiten.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Von-Voodoozauber-bis-Effizienzwunder-Die-10-ungewoehnlichsten-Grafikkarten-aller-Zeiten-766385/
04.08.2010
http://www.pcgameshardware.de/screenshots/medium/2010/08/3dfx_Voodoo_5_6000.JPG
grafikkarte,radeon,ati
specials