Online-Abo
  • Login
  • Registrieren
Games World
  • Geforce wird 12 Jahre alt: Die wichtigsten Nvidia-Grafikkarten - Von NV1 bis Geforce GTX 590

    Welches sind die wichtigsten Riva- und Geforce-Grafikkarten, die für Nvidia als Firma, für die Entwicklung der Grafikkarte an sich und für Sie als Kunden die größte Bedeutung gehabt haben? PC Games Hardware blickt zurück.

    In unserer Bildergalerie stellen wir Ihnen heute die (Geforce-) Grafikkarten vor, die für den Hersteller Nvidia, für die Entwicklung der Grafikkarte an sich und für Sie als Kunden die größte Bedeutung gehabt haben - inklusive Erläuterung, warum dies so ist. Einen entsprechenden Artikel mit den wichtigsten Radeon-Grafikkarten haben wir ebenfalls für Sie vorbereitet.

    Nvidia NV1
    Einer der ersten 3D-Chips, welcher dummerweise nicht zum gerade aufkommenden DirectX kompatibel war, da er als geometrische Basis nicht auf Dreiecke sondern auf bikubische Bezier-Patches setzte. Diese Fehlkalkulation verhinderte den Erfolg, sorgte dafür, dass nur zwei angepasste Spiele die Fähigkeiten nutzen konnten (Segas Virtua Fighter und Panzer Dragoon) und führte in Verbindung mit dem nie erschienenen NV2, welcher für eine Konsole gedacht war, beinahe zum vorzeitigen Ableben der Firma Nvidia. Ach ja: Der NV-1 war ein wahres Multitalent - neben 2D- und 3D-Grafik brachte er auch eine Soundkarte samt Gameport-Anschluss mit.

    Riva 128
    Der bei ST Micro gefertigte Rvia 128 war einer der ersten Chips, der leistungsfähige 3D-Beschleunigung mit einem brauchbaren 2D-Teil verband und so zu Nvidias Wiedererstarken beitrug. Wichtigste Konkurrenz war der von Kompatibilitätsproblemen geplagte Voodoo Rush - und natürlich die normale Voodoo-Graphics, gegenüber welcher der Riva 128 jedoch meist das Nachsehen hatte. Die 128 in Namen kam vom 128 Bit breiten Speicherinterface zu den 4 bis 8 Megabyte Framebuffer- und Texturspeicher.

    Riva TNT und TNT 2
    Mit dem als Voodoo-2-Killer gehandelten Riva TNT - Twin Texel Engine, symbolisch für die zwei Textureinheiten - griff Nvidia auch im Performance-Bereich an - trotz (deutlich) verfehlter Taktratenziele. Die Karte konnte eine (günstigere) Voodoo-Banshee in die Schranken weisen und kam auch gegen eine einzelne Voodoo 2 an - mit dem Plus der 2D-/3D-Kombination und dem erweiterten Feature-Set wie beispielsweise 32-Bit-Rendering. Gegen zwei Voodoo-2-Karten im SLI oder bei Spielen, welche die proprietäre 3dfx-Schnittstelle Glide unterstützten, sah die TNT jedoch kein Land. Mit der TNT2 begann Nvidia sein eigenes Tick-Tock-Prinzip: Auf eine neue Architektur folgte ein Speed-Upgrade. Hier wurde eine zweite Pixel-Pipeline eingebaut und die Taktraten gegenüber der Riva TNT z.T. verdoppelt. Nvidia sicherte sich mit Schmalspur-Ablegern namens "M64" eine starke Position im OEM-Markt, weshalb der TNT2 als reiner Speedgrade trotzdem wichtig war.

    Geforce 256
    Die Geforce war - ihrem Namen folgend - (beinahe, die aufgrund von Designfehlern kaum nutzbare TnL-Engine im Savage 2000 debütierte wenige Tage vorher) der erste Chip im Consumer-Bereich mit einer Transform-and-Lighting-Einheit in Hardware. Die Performance wurde aber eher durch die vier (anstelle nur zweier) Rendering-Pipelines erreicht. Diese wurden jedoch vom zunächst verwendeten SDR-RAM so stark gebremst, dass man wenig später eine mit DDR-Speicher ausgestattete Version namens Geforce DDR nachschob. Daneben glänzte Sie auch häufig mit Inkompatibilität zu vielen der gerade aufkommenden Athlon-Mainboards, was sie neben der hohen Leistungsaufnahme für Spieler zu einem zweischneidigen Schwert machte.

    Geforce 2 MX Geforce 2 MX Quelle: Carsten Spille Geforce 2 GTS und MX
    "Tock". Die Geforce 2 GTS erreichte mit deutlich höheren Taktraten als ihr direkter Vorgänger und je zwei bilinearen TMUs pro Pipeline für die damalige Zeit enorme Fps-Werte bei Spielen mit 16-Bit-Rendering. 32 Bit krankte noch immer an der Bandbreite des inzwischen um ein Drittel beschleunigten DDR-RAMs und mangelnden Effizienz-Features, wie sie die konkurrierenden Radeon-Grafikkarten boten. Das GTS - damals für die erstmal ein Gigatexel/sek. überschreitende Texturfüllrate stehend - ist auch heute noch in einigen Nvidia-Kartennamen zu finden. Es steht aber nicht mehr für "Giga-Texel-Shader". Den Durchbruch für TnL bildete die Geforce 2 MX - eine in Sachen Render-Pipelines und Bandbreite ziemlich genau auf die Hälfte abgespeckte Version der Geforce 2. Diese war günstig genug, um eine größere Käuferschicht anzusprechen und mindestens so leistungsfähig wie die High-End-Modelle der Vorgänger-Generation. Die Karten kamen so zu großer Verbreitung und boten auch Unterstützung für zwei Monitore. Mit der Geforce 2 Ultra, welche vor GTS und Pro die Speerspitze bildete, führte Nvidia die Garde überteuerter Karten für den Spieler ein, für den Geld - zumindest bis ca. 1.600 DM - keine Rolle spielt. Der Enthusiast-Markt war geboren.

    Geforce 3
    Mit der Geforce 3 hielt Shader-Hardware Einzug in den Endkunden-Markt. Vertex- und Pixel-Shader 1.1 wurden von Microsofts Direct X 8.0 verlangt und unterstützt. Diese waren wesentlich flexibler konfigurierbar als die früheren, kaum programmierbaren Register Combiner in den Recheneinheiten der Geforce 2. Wichtiger jedoch war die Einführung von schnellem Multisampling-FSAA und hochwertiger jedoch langsamer anisotroper Texturfilterung für den Mainstream-Markt. Die Radeon-Modelle der Zeit boten zwar rasend schnelles AF, welches durch die Verbindung von bilinearer Grundfilterung und starker Winkelabhängigkeit einen großen Teil des Qualitätsgewinns wieder zunichte machten. Trotz niedrigeren Taktes konnte die Geforce 3 der GF2 Ultra besonders im 32-Bit-Rendering abhängen, wenn auch das 16-Bit-Duell des öfteren zugunsten des alten Modells ausging. Eine günstige Ti200-Version, welche u.a. auch in einem Aldi-PC zum Einsatz kam, sorgte für die nötige Verbreitung der Karten.

    Geforce 4 Ti 4200 und MX
    Die Geforce 4 Ti 4200 (hören Sie das "Tock"?) war die günstige Version der Geforce-4-Reihe und entsprechend zu ihrer Zeit ein Preis-Leistungstipp. Nvidia hat bei ihr lediglich die Taktraten gesenkt, Funktionalität und Features des Chips aber unangetastet gelassen. Im Gegensatz zur Geforce 3 war hauptsächlich der Vertexshader potenter geworden. Im Gegensatz zur Ti 4200war die Geforce 4 MX äußerst umstritten. Shader bot die Karte nicht, sondern war eine etwas erweiterte Geforce 2 mit einigen Effizienzfeatures der 3er- und 4er-Modelle (Cross-Bar-Speichercontroller, Early -Z, Multisampling FSAA), was sie oft schneller machte, als die Geforce 2 Ultra. Kontrovers war die Namensgebung, gaukelte das "Geforce 4" doch eine schnelle Shader-Karte, wie es die TI-Modelle waren, vor.

    Geforce FX 5800 (im Bild das 'Ultra'-Modell) Geforce FX 5800 (im Bild das "Ultra"-Modell) Quelle: C. Spille
    Geforce FX-Reihe
    TICK - die Geforce FX war ein großer und "lauter" Sprung in der Entwicklung. Dummerweise verrannte Nvidia sich dabei in Featureitis und die Performance war in Shader-Modell-2-Spielen geradezu unterirdisch schlecht. Ati rannte der FX-Reihe mit der Radeon 9700 auf und davon. Übrigens: Die Geforce FX 5800 (& Ultra) war die erste Karte, welche GDDR2-RAM einsetzte - neben dem NV30-Chip eine der Ursachen für die enorme Wärmeentwicklung. Die vielbelächelte Geforce FX 5200 war zwar elend langsam, aber so günstig, dass sie für die wichtige Verbreitung von DX9-Hardware im Mainstream sorgte. Der Packungsaufkleber "DirectX 9" war dabei wichtiger als die kaum vorhandene Performance im beworbenen Modus. Einige Spiele nutzten gar in ein DirectX-8-Fallback für die DirextX-9-Karten der FX-Reihe. Die Geforce FX 5900 XT war das etwas leistungsfähigere "Tock" der Geforce FX. Die gute Performance in Shader-1.1-Spielen sowie der günstige Preis verhalfen ihr zum Preis-Leistungstipp, da Ati mit der 9600-Mittelklasse nicht so recht aus den Startlöchern und ergo später auf den Markt kam. An sich verdient die Geforce FX 5700 Ultra keine besondere Erwähnung - sie war teuer, sie war nicht besonders schnell und sie gab es lediglich in kleinen Stückzahlen. Jedoch war dies die erste Karte, die es später in einer Version mit dem heute noch populären GDDR3-RAM gab. Die Geforce PCX 5900 war leistungsmäßig - wie alle FX-Karten - kein Hit, aber immerhin die erste Nvidia-Karte mit dem gerade neu erschienenen PCI-Express-Interface. Die Kompatibilität wurde durch Nvidias Brückenchip HSI (High-Speed-Interface) hergestellt.

    Geforce-6000-Reihe
    Die Geforce 6800 brachte Shader-Modell-3-Konformität und Nvidia wieder in Schlagdistanz zu Atis X800 XT (PE), die wenige Wochen später erschien. Verbreitung fand die 6800 allerdings eher in Form der 6800 GT, welche deutlich günstiger, aber nur wenig niedriger getaktet war.
    Wie schon die Ti 4200 und die FX 5900, mauserte sich auch die Geforce 6600 GT mit dem nativen PCI-E-Chip NV43 zum Preis-Leistungstipp. Sie war besonders in modernen Shader-2.0-Spielen wesentlich schneller als das High-End der verkorksten FX-Generation, verhältnismäßig günstig und profitierte von Atis Schwierigkeiten mit der konkurrierenden, bereits in 110nm gefertigten X700-Reihe, welche ihre Taktziele verfehlte und deren schnellste Version, die XT, sogar abgesagt werden musste.

    Geforce 7800 GTX
    Mit der im Spätsommer 2005 erschienenen Geforce 7800 GTX legte Nvidia die Meßlatte für Ati hoch: Zwar war kaum eine Taktsteigerung gegenüber der 6800 Ultra erfolgt, Nvidia hatte jedoch die Anzahl und Fähigkeiten der Render-Pipelines deutlich aufgebohrt, sodass 6800 Ultra und die zwischenzeitlich erschienene X850 XTPE deutlich zurückgelassen wurden.

    Geforce 8800 GTX
    Wiederum ein großes, dieses Mal aber "leises" Tick. Die erste DX10-Grafikkarte brach mit der inzwischen überholten Geforce-6-/-7-Architektur und konnte dank der riesigen und teuren G80-GPU mehr als anderthalb Jahre an der Performance-Spitze verweilen. Lediglich eine höher getaktete Ultra-Version gesellte sich noch zur günstigeren und damit Mainstream-kompatibleren 8800 GTS hinzu. Letztere war aufgrund niedrigerer Taktraten und deaktivierter Teile der GPU etwas langsamer als GTX und Ultra.

    Geforce 8800 GT:
    Mit der ersten Karte auf Basis der erfolgreichen und in diversen Inkarnationen sehr langlebigen G92-Chips brachte Nvidia noch vor den günstigeren Radeon-HD-3800-Karten im Oktober 2007 eine erschwingliche Mittelklasse-Karte mit ansprechender Spieleleistung auf den Markt, nachdem Geforce 8600 und 8500 in dieser Hinsicht enttäuscht hatten. Die 8800 GT wurde später in 9800 GT umbenannt und brachte damit eines der aktuellen Nvidia-Ärgernisse ins Rollen.

    Geforce GTX 280 und GTX 260:
    Mit dem monströsen GT200-Chip erschlug Nvidia nicht nur die eigenen GPUs früheren Datums leistungsmäßig, sondern auch die Konkurrenz aus dem Hause AMD. Zusätzlich bot der Chip dank Double-Precision-Support und weitere Architekturverbesserungen auch eine nochmals verbesserte GPU-Computing-Grundlage und brachte Nvidias Cuda-Stein so richtig ins Rollen. Die kurze Zeit später erschienene Radeon HD-4000-Reihe war bei deutlich günstigerem Preis allerdings so dicht an der GT200-Leistung, dass Nvidia das folgende, zweitstärkste Modell GTX 260 aufrüsten musste, um keinen Ladenhüter zu produzieren. Die GTX 260-216 wurde von der Radeon HD 4870 enorm unter Druck gesetzt. In der Folge fiel der Preis beider Karten innerhalb eines Jahres auf unter 200 Euro - soviel Leistung zu so niedrigen Preisen gab's noch nie zuvor.

    Geforce GTX 295:
    Mit der Dual-GPU-Karte übernahm Nvidia die Leistungskrone im Grafikkartenmarkt von der inzwischen erschienenen HD 4870 X2 mit ebenfalls zwei GPUs. Die Karte war anfangs kaum verfügbar und extrem teuer - wie Prestigeobjekte es nunmal sind.
    Geforce GTX 295 Geforce GTX 295 Quelle: http://www.pcgameshardware.de
    Geforce GTX 480 und GTX 470 (Achtung, historischer Text!)
    Mit Spannung erwarten wir die offizielle Vorstellung und vor allem die ersten unabhängigen Leistungstests für die GF100/Fermi-Karten, welche nun als Geforce GTX 480 und GTX 470 auf den Markt kommen sollen. Gehen Nvidias Prognosen auf, so könnte damit eine neue Ära der 3D-Karten eingeläutet werden. Stimmt die Rechnung nicht, wird sich AMD doppelt ins Fäustchen lachen, denn dann hätten sie nicht nur mehr als ein halbes Jahr Vorsprung im Markt, sondern auch die wesentlich günstiger zu produzierenden Chips in der Pipeline.

  • Stellenmarkt

    Es gibt 110 Kommentare zum Artikel
    Von hugo-03
    GeForce4 Ti 4400 meine erst Graka
    Von Aoi
    Ich hab das letztens erst gelsen und gedacht: "Warum Updated das keiner?"Jetzt kommts aktuell auf die Main. Die…
    Von Genghis99
    "Achtung historischer Text"
    Von Quasar_82
    Salve. Also die GTX570 Phantom ist meine erste Nvidia, davor waren es immer AMDs/ATIs (8500, 9600Pro, X1950Pro,…
    Von Hugo78
    Fehlt hier nicht die 500er Reihe im Text?!
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
667466
Grafikkarten
Evolution der Grafikkarten: Nvidia
Welches sind die wichtigsten Riva- und Geforce-Grafikkarten, die für Nvidia als Firma, für die Entwicklung der Grafikkarte an sich und für Sie als Kunden die größte Bedeutung gehabt haben? PC Games Hardware blickt zurück.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Evolution-der-Grafikkarten-Nvidia-667466/
31.08.2011
http://www.pcgameshardware.de/screenshots/medium/2008/11/01_Nvidia_NV1.jpg
grafikkarte
specials