Online-Abo
  • Login
  • Registrieren
Games World
  • Die schnellsten Grafikkarten ihrer Zeit: 3D-Beschleuniger mit mehr als einer GPU [Update]

    Seit den 90er-Jahren existieren Desktop-Grafikkarten mit mehr als einem Grafikprozessor - zur Ihrer Zeit meist die schnellsten Grafikkarten am Markt, zumindest nach blanker Betrachtung von Durchschnitts-Fps. PC Games Hardware wirft einen Blick zurück auf bekannte und exotische Multi-GPU-Grafikkarten. Heute wegen Crossfire Reloaded.

    Aus aktuellem Anlass (am 27.09.2005 geht erstmals Crossfire an den Start) veröffentlichten wir unser Multi-GPU-Special erneut für Sie und haben ihn auf den aktuellen Stand der Dinge gebracht. Neu an Bord sind unter anderem die GTX 590/690 sowie die HD 7990.
    Die Geschichte der Multi-GPU-Grafikkarten Die Geschichte der Multi-GPU-Grafikkarten Quelle: PC Games Hardware
    Wann genau die erste Dual- respektive Multi-GPU-Grafikkarte auf den Markt kam, ist Auslegungssache. PC Games Hardware startet der Einfachheit halber mit der Voodoo Graphics von 3Dfx, welche ab dem Herbst 1996 für Furore sorgte. Je ein "Pixel-FX" und ein "Texel-FX" getaufter Chip machten die erste Voodoo im weiteren Sinne zur Dual-GPU-Grafikkarte. Auch die Nachfolger Voodoo 2 (mit SLI-Option) und Voodoo Rush kamen mit mehr als zwei Grafikchips daher: Bei der Voodoo 2 lötete 3dfx zwei Texel-FX-Chips mit höherem Takt auf die Platine und erreichte so weit mehr als die doppelte Rechenkraft. Bei der im Jahr 2000 erschienenen VSA-100-Serie trieb der 3D-Pionier das Spiel auf die Spitze: Die "Voodoo Scalable Architecture" (VSA) erlaubte den Betrieb von bis zu 32 Chips im Verbund. Die im Sommer 2000 erschienene Voodoo 5 5500 arbeitete mit zwei VSA-100-Chips im SLI, während die nie vollendete Voodoo 5 6000 sogar vier Grafikchips auf ihrer 31 Zentimeter langen Platine vereint. Letzteres stellt bis dato den Rekord dar, nach 3dfx war kein Hersteller mehr so mutig - möglicherweise ist das besser so, denn die V5 6000 blieb nicht ohne Grund im Prototypen-Status stecken. Mehr dazu liefert unser Artikel Die Geschichte der 3dfx Voodoo5 6000.

    Mit der Firma starb auch 3dfx' spezifische SLI-Technologie, bei der sich die Grafikchips nicht bei der Berechnung ganzer Bilder, sondern einzelner Bildzeilen abwechselten. Durch diese Aufteilung litt keine 3dfx-Karte je unter dem Phänomen Mikroruckeln.

    Exkurs: Aktuelle Multi-GPU-Grafikkarten und historische Klassiker

    Ati Rage Fury Maxx (1999) mit 2x Rage-128 und 2x 32 MiByte VRAM: 500 Megapixel pro Sekunde dank AFRendering sollten Nvidias Geforce 256 das Fürchten lehren. Es klappte nur teilweise, vorwiegend bei 32-Bit-Rendering, aber nur unter Windows 98 ... Ati Rage Fury Maxx (1999) mit 2x Rage-128 und 2x 32 MiByte VRAM: 500 Megapixel pro Sekunde dank AFRendering sollten Nvidias Geforce 256 das Fürchten lehren. Es klappte nur teilweise, vorwiegend bei 32-Bit-Rendering, aber nur unter Windows 98 ... Quelle: C. Spille AMDs (Ex-Ati) Multi-GPU-Geschichte: 1999 bis 2011
    Beim 2006 von AMD übernommenen Grafikspezialisten Ati hieß der erste Dual-Chip-Versuch Rage Fury Maxx, welche 1999 das Licht der Welt erblickte. Zwei Rage-128-Chips, jeweils mit 125 MHz getaktet, teilten sich die Arbeit erstmals mithilfe des Alternate Frame Renderings (AFR). Das Ergebnis sah auf dem Papier hervorragend aus: 500 Megapixel pro Sekunde (250 pro Chip) und eine Bandbreite von 4,58 GByte/s ließen sogar Nvidias Geforce 256 alt aussehen (480 GPix/s, 2,66 GB/s). Zum Verhängnis wurde der Maxx, dass es nie Treiber gab, die beide Chips unter Windows 2000 und später Windows XP ansprechen konnten - das volle Potenzial der Karte war auf Windows 98 (SE) beschränkt. Infolgedessen legte man das AFR- bzw. Multi-GPU-Rendering ad acta.

    Nachdem es einige Jahre ruhig im Bereich der Ati'schen Multi-GPU-Grafikkarten war, erschienen mit der Radeon-X1000-Serie wieder erste Herstellerdesigns mit mehr als einer GPU. Bekannte Vertreter waren unter anderem die Gecube X1650 XT Gemini (zu Deutsch: Zwilling) von Ende 2006, welche mit zwei X1650-XT-Chips antrat. Die Leistungssteigerung gegenüber einer einzelnen X1650 XT war zwar ordentlich, der hohe Preis schreckte aber viele Käufer ab. Kurze Zeit später trat die Sapphire mit der Radeon X1950 Pro Dual an. Auch hier ergaben sich auf dem Papier dank 2x 36 Shader-ALUs und insgesamt 24 Textureinheiten wahre Rechenwunder, technisch bedingt waren dazu jedoch ein Crossfire-fähiges Mainboard und ein spezieller Treiber erforderlich, was sich nicht positiv auf den Verkauf auswirkte.

    Ati Radeon HD 3870 X2 (2007) mit 2x RV670: Die erste Radeon nach Jahren, welche Nvidias Geforce 8800 GTX/Ultra zumindest nominell überholen konnte. Ati Radeon HD 3870 X2 (2007) mit 2x RV670: Die erste Radeon nach Jahren, welche Nvidias Geforce 8800 GTX/Ultra zumindest nominell überholen konnte. Quelle: PC Games Hardware Im Herbst 2007 gesellte sich unter anderem die Gecube HD 2600 XT Gemini 3 zur Riege der Dual-GPU-Karten. Sie konnte auf zwei HD-2600-XT-Chips mit je 800 Megahertz zugreifen; pro Chip standen alternativ 256 oder 512 MiByte VRAM zur Verfügung. Weiter ging es 2008 mit der HD-3000-Serie und diversen Multi-GPU-Grafikkarten. So startete Anfang des Jahres das offizielle Ati-Design Radeon HD 3870 X2 mit zwei RV670-GPUs (auch als "R680" bekannt), im April legte Asus die Eigenkreation HD 3850 X2 nach, welcher allerdings wenig Aufmerksamkeit geschenkt wurde. Ein ähnliches Spiel ereignete sich beim Launch der Radeon HD 4850 X2 und HD 4870 X2: Während die große X2 mit zwei RV770 (oft "R700" oder beim Codenamen "Spartan" genannt) von sehr vielen Herstellern aufgegriffen wurde, gab es bei der kleineren X2 mit Sapphire nur einen Anbieter (die Karten hatten entweder 2x 512 oder 2x 1.024 MiByte VRAM). Richtig durchsetzen konnte sich die HD 4850 X2 aufgrund des schwachen Preis-Leistungsverhältnisses und der hohen Lautstärke nicht, zur Cebit gab es dann starke Preissenkungen und eine verbesserte Lüftersteuerung.

    Mit der "Tanne" Radeon HD 5970 (Codename Hemlock) beendete AMD noch Ende 2009 seine gewohnte Taktik, Dual-GPU-Karten mit dem Suffix "X2" zu kennzeichnen. Stattdessen bekam sie eine höhere Modellnummer spendiert. Wie alle Grafikchips der "Evergreen"-Familie (HD 5000) beherrscht auch die Radeon HD 5970 Direct X 11 in vollem Umfang. Der größte Unterschied zu den Geschwistern betrifft die Ausführungsgeschwindigkeit aller geforderten Arbeiten: Dank zweier GPUs soll diese schneller denn je vonstatten gehen. An Bord der HD 5970 befinden sich zwei vollwertige Cypress-Grafikprozessoren sowie 2 x 1.024 MiByte Speicher. Um die Leistungsaufnahme gering zu halten und die Kühlung nicht zu überfordern, arbeiten die Chips auf der HD 5970 jedoch nur mit HD-5850-Takt: 725/2.000 MHz (GPU/VRAM) liegen hier an. Theoretisch stehen demnach 3.200 Shader-ALUs, 160 Textureinheiten und 64 ROPs zur Verfügung. Da die eingesetzte Multi-GPU-Technologie Crossfire jedoch nicht zu 100 Prozent skaliert, fällt die Leistung in der Praxis geringer aus.

    Asus Ares #2: Um die Mega-Hardware zu kühlen setzt der Hersteller auf kiloweise Kupfer und Metallplatten nebst Axialbelüftung. Asus Ares #2: Um die Mega-Hardware zu kühlen setzt der Hersteller auf kiloweise Kupfer und Metallplatten nebst Axialbelüftung. Quelle: PC Games Hardware Einige Monate nach dem Start der Radeon HD 5970 brachte ein AMD-Partner nach dem anderen aufgemöbelte Eigendesigns der Dual-GPU-Karte auf den Markt. Den Anfang machte Sapphire im April 2010 mit der Toxic HD 5970: Neben einem von 1 auf 2 GiByte pro GPU verdoppelten Speicher hob der Hersteller auch die Taktraten stark an. Anstelle von 725/2.000 MHz rechnete die Karte mit satten 900/2.400 MHz und blieb dabei dank des Triple-Slot-Kühlers von Arctic sogar in akzeptablen Geräuschgefilden. Asus zog im Sommer mit der Ares nach, welche zwar "nur" 850/2.400 MHz ab Werk mitbrachte, dank des dekadenten Platinen- und Kühldesigns aber zu weit mehr im Stande war. Der dritte Hersteller im Bunde, Xfx, brachte kurz darauf die Radeon HD 5970 Black Edition Limited mit denselben Taktraten heraus. Neben der Verpackung in Form eines Maschinengewehrs und dem stolzen Preis von 1.000 Euro machte die Karte vor allem mit ihrer zweistelligen Sone-Lautheit von sich hören. Optisch erinnert sie, nach dem Launch der Radeon HD 6990, wie ein Vorgriff auf dieses Design.

    Apropos Radeon HD 6990: Anfang März 2011 legte AMD die Messlatte für Fps, Leistungsaufnahme und Lautheit deutlich nach oben. Die 30,5 Zentimeter lange Dual-GPU-Grafikkarte versteckt zwei vollwertige Cayman-XT-Grafikchips und zweimal 2 GiByte VRAM unter der Vapor-Chamber-Kühlhaube. Nachdem schon eine HD 6970 in Spielen die 200-Watt-Marke erreicht, war es klar, dass die HD 6990 mehr als 300 Watt ziehen würde. Richtig, in Spielen sind mit dem Standard-BIOS etwa 330 Watt zu verzeichnen. Legt der Nutzer den dafür vorgesehenen Schalter um, tritt das OC-BIOS in Kraft, welches den Chiptakt von 800 MHz bei 1,1 Volt auf 880 MHz bei 1,175 Volt anhebt. Die Folge ist eine Leistungsaufnahme von rund 370 Watt - immerhin wird Asus' Ares unterboten. Furmark und Konsorten treiben die Leistungaufnahme laut unseren Messungen jedoch auf stolze - oder sagen wir besser traurige - 506 Watt. AMD bleibt nicht untätig und hat die Radeon HD 7990 (2x Tahiti XT) auf den Markt geworfen. Auch hier gilt: Die doppelte Leistung gibt es oft nicht, aber dafür schnell das Doppelte an Stromverbrauch und und ein extra an Laustärke in den Referenzdesigns. Wer allerdings in diesem Bereich unterwegsst, dem geht es ohnehin meist nur um die nackte Leistung.

    Nvidias Multi-GPU-Geschichte: Von 2004 bis 2011
    Asus Geforce 6800 GT Dual (2005): Nvidias wiederbelebtes SLI auf einer Karte. Asus Geforce 6800 GT Dual (2005): Nvidias wiederbelebtes SLI auf einer Karte. Quelle: PC Games Hardware Nvidia stieg erst spät auf den Dual- oder Multi-GPU-Zug auf, und zu Beginn der Geschichte waren es auch eher einzelne Projekte von Board-Partnern. Den Grundstein dafür legte Nvidia mit der Einführung des neuen "SLI" bei der Geforce-6000-Reihe: Das Scalable Link Interface erlaubte erstmals die Koppelung zweier Geforce-Grafikkarten zwecks Arbeitsteilung. So präsentierte Asus mit der Geforce 6800 GT Dual einen Überraschungs-Hit auf der Cebit 2005. Hier zeigte der Hersteller zum ersten Mal die Kombination von zwei Geforce-6800-Chips auf einem Board. Entgegen der damaligen Aussagen erreichte die Karte aber nie in Stückzahlen den Handel. Nicht viel später kam die Gigabyte 3D-1 mit zwei Geforce 6600 GT. Auch wenn sie leistungsmäßig trotz SLI auf einem Board nur in der gehobenen Mittelklasse mitspielte, war die 3D-1 doch ein interessantes, weil neuartiges Projekt. Ähnliche Dual-6600-Lösungen gab es noch von Asus und Leadtek. MSI präsentierte auf einer Hausmesse sogar eine Karte mit zwei MX-Modulen (MXM aus dem Mobilbereich), die zwei 6600er trugen.

    Weiter ging es mit der Asus Geforce 7800 GT Dual. Die limitierte Edition der Dual 7800 GT schaffte es als eine der wenigen Dual-Geforce-Karten sogar in den Handel und konnte zu entsprechend astronomischen Preisen Sammlerherzen höher schlagen lassen. Ein ähnliches Sonderprojekt war die Galaxy Masterpiece 7600 GT Dual mit 2x 7600 GT und 2x 256 MiByte VRAM aus dem Jahre 2006. Galaxy zeigte sich auch in den Folgejahren als äußerst experimentierfreudig: Fast jeden Mainsteam-Grafikchip bedachte der Hersteller mit einem Dual-Design. In den Handel kamen unseres Wissen aber nur wenige - und wenn, dann nur in den asiatischen.

    Zur Cebit 2006 zauberte Nvidia die Geforce 7900 GX2 mit SLI auf einer Karte aus dem Hut. Die 31 Zentimeter lange 7900 GX2 war im Gegensatz zur kurze Zeit später vorgestellten 7950 GX2 nur für den OEM-Bereich gedacht und wurde von vielen als Verzweiflungstat gegen die starke X1900-Konkurrenz von Ati gesehen. Nvidia montierte zwei der sparsamen G71-Chips auf die "Sandwich"-Karten: Zwei getrennte Boards, welche aufeinandergeschraubt wurden und nur einen PCI-Express-Steckplatz besetzten, waren das Markenzeichen des Designs. Zwar konnte man damit in einigen Spielen und besonders im aktuellen 3DMark die Performance-Krone zurückerobern, aber ein richtiger Erfolg war dieses Konstrukt nicht. Das hiermit mögliche Quad-SLI (2x GX2) verschwand nach einem kurzen Aufflammen der Aufmerksamkeit schnell wieder in der Versenkung und wird von aktuellen Treibern nicht mehr unterstützt.

    Nvidia Geforce 9800 GX2 (2008) aka 'Der Toaster': Der G92-Chip verhalf unzähligen Grafikkarten zu einem Namen, hier kommt er im Doppel zum Einsatz. Jeder Chip darf über 512 MiByte GDDR3-RAM verfügen - das wurde in hohen Auflösungen schon mal zum Flaschenhals. Nvidia Geforce 9800 GX2 (2008) aka "Der Toaster": Der G92-Chip verhalf unzähligen Grafikkarten zu einem Namen, hier kommt er im Doppel zum Einsatz. Jeder Chip darf über 512 MiByte GDDR3-RAM verfügen - das wurde in hohen Auflösungen schon mal zum Flaschenhals. Quelle: http://www.pcgameshardware.de Quasi im Doppelpack mit der Geforce 9800 GTX brachten die Nvidia-Mannen im Jahr 2008 die 9800 GX2 auf den Markt. Diese konnte in den meisten Fällen Atis Radeon HD 3870 X2 schlagen. Unverständlicherweise war die zweite Sandwich-Karte (beide G92-GPUs lagen innen) nur mit 512 MiByte pro Chip ausgestattet, was besonders beim Haupteinsatzgebiet "HD-Gaming" mit Kantenglättung hinderlich war und starke Fps-Einbrüche zur Folge hatte. Anfang Januar 2009 wurde dann die Geforce GTX 295 vorgestellt, ebenfalls in Sandwich-Bauweise und mit zwei GT200b-GPUs in 55-Nanometer-Fertigung. Die GTX 295 stellte die erste Desktop-Grafikkarte von Nvidia dar, die die Schallmauer von einem TFLOPS durchbrach. Dies erreichte sie dank zweier GPUs, die je 240 Shader-ALUs, 80 Textureinheiten und 28 ROPs mit einem 448-Bit-Speicherinterface besitzen. Die Geforce GTX 295 sollte den Nimbus der schnellsten Einzel-Grafikkarte zurück zu Nvidia holen, nachdem AMD mit dem Dual-GPU-Modell Radeon HD 4870 X2 die bis dato schnellste, einzelne Grafikkarte führte. Kurze Zeit später folgte die GTX 295 Revision 2.0, welche die Doppeldeckerform gegen eine einzelne Platine eintauschte. Die von den Nvidia-Partnern gefertigte Karte bot minimal mehr Speichertakt, war günstiger und dank des neuen Kühlers sogar leiser.

    Nachdem Fermi im Frühjahr 2010 vor allem für seine hohe Leistungsaufnahme und Lautheit bekannt wurde, verwundert es niemanden, dass Nvidia nicht sofort eine Dual-GPU-Version von "Thermi" am Start hatte. Das geschah erst fast ein Jahr später: Die Geforce GTX 590 trat drei Wochen nach AMDs Radeon HD 6990 den Kampf um die "Leistungskrone mit aller Kraft" an. Seitdem teilen sich die beiden Streithähne den begehrten Kopfschmuck. AMD führt in extremen Auflösungen, während Nvidia vor allem in üblichen Einstellungen besser abschneidet - allerdings auf Kosten der Leistungsaufnahme: Die GTX 590 schluckt in Spielen etwa 340 und im PCGH Tool bis zu 444 Watt. Damit die Leistungsaufnahme nicht ausufert, setzen beide IHVs auf Hard- und Software-gesteuerte "Schlösser": Power Containment (Nvidia) und Powertune (AMD).

    Der Chip ist für Dual-GPU-Setups einfach ungeeignet. Es bessert sich mit der zweiten Fermi-Generation und Kepler, zu denen Mit Kepler wagt es Nvidia erneut und bietet die Geforce GTX 690 (2x GK104) an. Wer die exorbitant hohen Preise zahlt, bekommt viel Leistung geboten, die allerdings nicht liniear mit den vorhandenen Chips skaliert und auch im Jahr 2012 ist Mikroruckeln noch immer ein Thema.

    XGI Volari V8 Duo (2003): Die erfolglose Firma XGI wollte in Zeiten der Geforce FX und Radeon 9000 mit zwei GPUs für Furore sorgen. Das klappte aufgrund mangelhafter Treiber und fragwürdiger Hardware-Kapazitäten bekanntlich nicht. XGI Volari V8 Duo (2003): Die erfolglose Firma XGI wollte in Zeiten der Geforce FX und Radeon 9000 mit zwei GPUs für Furore sorgen. Das klappte aufgrund mangelhafter Treiber und fragwürdiger Hardware-Kapazitäten bekanntlich nicht. Quelle: PC Games Hardware Multi-GPU-Exoten (Auswahl)
    Neben 3dfx, Nvidia und Ati gab es selbstverständlich noch andere Firmen, die Multi-GPU-Grafikkarten auf den Markt brachten. Eine der bekanntesten war XGIs berühmt-berüchtigte Volari V8 Duo von 2003. Viel gibt es zur lauten, stromfressenden Karte der XGI-Mannen, welche bis 2007 die Führung im Grafikmarkt übernehmen wollten, allerdings nicht zu sagen: Sie war langsam, heiß und litt unter Treiberproblemen. Die blauen LEDs sahen jedoch ziemlich cool aus, wie Sie in unserer Galerie feststellen werden.

    Ebenfalls in den Exoten-Bereich fällt die Quantum 3D Obsidian X24. Zwei 3dfx-Voodoo2-Karten konnte jeder im SLI (Scan Line Interleave) koppeln - das nötige Kleingeld von anfangs insgesamt 1.200 DM vorausgesetzt. Nur die 3Dfx-Tochter Quantum 3D, eigentlich für professionelle Simulatoren zuständig, brachte jene Voodoo 2 mit SBSLI - Single-Board-SLI - auf den Markt. Praktisch, wenn die PCI-Steckplätze knapp wurden.

    Ebenfalls erwähnenswert, wenn auch eher als Freak-Projekte, sind die Asus Mars und die EVGA Geforce GTX 275 CO-OP PhysX Edition. Auf der monströsen Mars kommen zwei vollständige GT200b-Chips mit GTX-285-Takt zum Einsatz. Asus nutzt Speicherchips doppelter Dichte, was in üppigen 4 GiByte (2 GiByte pro GPU) resultiert - mehr als bei der GTX 285. Bei der Mars handelt es sich ergo um Geforce-GTX-285/2G-SLI unter einer Haube - mit einer Einschränkung: Der Speicher arbeitet nur mit 1.152 MHz; der GTX-285-Standard beträgt 1.242 MHz. Beide Grafikchips rechnen mit 648/1.476 MHz (GPU/ALU). Die Asus Mars ist allerdings nur in absolut limitierter Stückzahl auf den Markt gekommen, litt an Überhitzung bei Dauerlast und hat daher höchstens Schauwert gehabt.

    Galaxy Geforce GTX 460 Dual (2011): Kurz vor dem Start der Geforce GTX 590 präsentierte der emsige Nvidia-Partner Galaxy diese optisch einzigartige GTX 460 Dual. Wo Sie die kaufen können? Fragen Sie uns etwas Leichteres. Galaxy Geforce GTX 460 Dual (2011): Kurz vor dem Start der Geforce GTX 590 präsentierte der emsige Nvidia-Partner Galaxy diese optisch einzigartige GTX 460 Dual. Wo Sie die kaufen können? Fragen Sie uns etwas Leichteres. Quelle: http://en.expreview.com Bei der EVGA Geforce GTX 275 CO-OP PhysX Edition hat EVGA bei der Fertigung das PCB-Layout der zweiten Geforce GTX 295 übernommen, auch der Kühler ist weitestgehend der gleiche. Ausgestattet ist die Karte mit einem GT200b-Chip für die Grafikberechnung, welcher mit 638 MHz (GPU), 1.296 MHz (Shader) und 1.134 MHz (Speicher) taktet. Wie bei der Standard GTX 275 ist der Grafikspeicher 896 MByte groß und mit 448 Bit angebunden. Für die Physikberechnungen setzt EVGA einen G92b-Chip ein, wie er auch auf einer Geforce GTS 250 zum Einsatz kommt. Dieser taktet mit 738 MHz (GPU),1.836 MHz (Shader) und 1.100 MHz (Speicher). Letzterer ist aufgrund der auf 192 Bit reduzierten Speicheranbindung 384 MiByte groß, was für die Physikberechnungen ausreicht. Für 350 US-Dollar (Stand: 20.11.2009) ging die ungewöhnliche Karte anfangs über den Ladentisch.

    Jeder GK104-GPU der Mars III bietet das Board 8+2 Phasen und damit insgesamt 20. Hinzu kommen drei 8-Pol-Anschlüsse, welche in der Theorie zusammen mit dem PCI-Express-Slot eine maximale Leistungsaufnahme von 525 Watt erlaubt. Jeder GK104-GPU der Mars III bietet das Board 8+2 Phasen und damit insgesamt 20. Hinzu kommen drei 8-Pol-Anschlüsse, welche in der Theorie zusammen mit dem PCI-Express-Slot eine maximale Leistungsaufnahme von 525 Watt erlaubt. Quelle: Expreview Evga veröffentlichte in diesem Jahr auch die erste "Geforce GTX 460 Dual": die GTX 460 2Win. Die Karte greift ein ähnliches Design wie die GTX 295, GTX 275 Co-Op und GTX 590 auf, erreicht den Markt aber reichlich spät: Der Hersteller ruft rund 350 Euro für dieses Stück Technik auf - ein Bereich, in dem sie sich mit der Geforce GTX 580 duelliert, diesen Kampf aber nicht immer gewinnen kann. Was bleibt ist - wie bei jeder limitierten Dual-Karte - der Hauch von Exklusivität und Seltenheitswert. An dieser Stelle sei noch die GTX 460 Dual von Galaxy erwähnt, welche diese Exklusivität mit einem schneeweißen PCB zu kombinieren versucht. Der Hersteller fällt in der Historie der Multi-GPU-Karten mit Regelmäßigkeit auf: Kaum eine Mittelklasse-Geforce wurde ausgelassen. Beginnend bei der 7600 GT, über die 8600 GT, bis hin zur GTX 460 ist vieles vertreten. In der Bildergalerie gehen wir auf alle Exoten und weiteren MGPU-Modelle ein - etwa zehn davon stammen von Galaxy (hierzulande bekannt unter der Marke KFA²), aber kaum eine konnten Europäer je erwerben.

    Die Asus Mars III, benannt nach dem römischen Kriegsgott, konnten wir uns bereits auf der Computex 2012 näher anschauen. Diese basiert auf zwei Kepler GK104, ähnlich wie die Geforce GTX 690. Die mit nur zwei Slots überraschend kompakte Kühlung setzt auf drei Lüfter, der mittlere ist hierbei etwas größer - so will Asus gleich 20 Prozent geringere Temperaturen erzielen. Unter Haube offenbart sich eine Platine, welche besagter Geforce GTX 690 ziemlich ähnlich ist, jedoch in erster Linie stärker bestückt ist. AMDs Radeon HD 7970 bereichert seit Ende Januar den High-End-Grafikkartenmarkt. Die Partnerhersteller tüfteln seitdem an neuen Designs, welche sich beim Takt, bei der Platine und natürlich der Kühllösung unterscheiden.

    Sie interessieren sich für die Geschichte der Grafikkarten? Dann hat PC Games Hardware diverse interessante Artikel für Sie parat. Die Geschichte der 3D-Grafikkarten sollten Sie auf jeden Fall gesehen haben, außerdem empfehlen wir Die wichtigsten 3dfx-Grafikkarten: Von Voodoo Graphics bis zur Voodoo5 6000, Die 25 wichtigsten Ati-Grafikkarten: Von Rage bis Radeon HD 4870 X2 und Die 20 wichtigsten Nvidia-Grafikkarten: Von NV1 bis Geforce 8800 GTX.

    Wissenswert: Mehr Informationen zum Thema finden Sie in:
    AMD Radeon Catalyst Treiber Download: Crimson 16.11.5 Hotfix
  • Stellenmarkt

    Es gibt 84 Kommentare zum Artikel
    Von cuthbert
    Normalerweise kauf ich mir auch keine Dual-GPUs, aber als es die 9800 GX2 für 150€ im Ausverkauf gab als der…
    Von DasRegal
    Mal ganz im Ernst:Egal ob Multi-GPU Karten viel Strom verbrauchen, zu heiß sind, zu teuer und Probleme mit…
    Von Yaki
    jo das monster der monster fehlt^^^^^^^^
    Von spw
    Schwachsinn ! btw was sind "echte Zocker" ? In DSC A10 zb ist die HD6990 auf max details,vernünftigen qualisettings…
    Von Löschzwerg
    Mir fehlt die AAlchemy und die simFUSION 6000
      • Von cuthbert Software-Overclocker(in)
        Normalerweise kauf ich mir auch keine Dual-GPUs, aber als es die 9800 GX2 für 150€ im Ausverkauf gab als der Nachfolger raus gekommen ist, da konnt ich nicht widerstehen. Wie im Text steht, wurde sie leider durch ihren kleinen RAM ausgebremst. Laut war sie natürlich auch. Aber hey, dafür war sie oft schneller als eine damals noch einiges teurere GTX 260. Von den Mikrorucklern habe ich auch nicht all zu viel (um nicht zu sagen gar nichts) gemerkt.

        Hab sie dann aber trotzdem schnell wieder gewinnbringend verkauft, da mir meine HD 3850 von der Leistung her immer noch reichte (und das sogar noch bis Ende 2010^^).
      • Von DasRegal PCGHX-HWbot-Member (m/w)
        Mal ganz im Ernst:
        Egal ob Multi-GPU Karten viel Strom verbrauchen, zu heiß sind, zu teuer und Probleme mit Mikroruckeln haben - sind sie einfach COOLER als Single GPU Karten.

        (Außerdem sollte sich jeder das Mikroruckeln erstmal angucken bevor er darüber urteilt. Ich habe schon Anfang 2006 ein 7800GT Gespann besessen und muss sagen, dass sich damals 40FPS so anfühlten wie 30FPS auf einer Single GPU. 60FPS fühlten sich halt wie 60FPS an. Also alles halb so wild, nunmal die SLI Technik heute stark verbessert wurde. Verbaut hatte ich auch noch ein 8800GT Gespann und dann ein 450GTS Gespann.
        Crossfire habe ich nie gehabt, getestet oder irgendwo live in einem PC eingebaut gesehen.)
      • Von Yaki Kabelverknoter(in)
        jo das monster der monster fehlt^^^^^^^^
      • Von spw PC-Selbstbauer(in)
        Zitat von basic123
        Multi-GPU-Grafikkarten sind halt doch eher was für irgendwelche 3D-Rekordjagden. Echte Zocker vertrauen immer noch auf EINE Grafikkarte.

        Schwachsinn ! btw was sind "echte Zocker" ?

        In DSC A10 zb ist die HD6990 auf max details,vernünftigen qualisettings und 1920*1200 manchmal zu wenig für >25 fps ....geschweige denn flüssiges Track IR .

        Da könnte ne zusätzliche hd6970 nicht schaden bzw eine gute skalierung mit einer 2ten hd6990 wäre notwendig(gibbet aber nirgends AUSSER in benches).

        Gerade "echte" pc spiele bringen EINE graka sehr schnell an ihre Grenzen und dual gpu´s ebenso...leider.

        Als echter zocker hat man track ir,pedale,flugsysteme,lenkrad,etc etc oder "echt" NICHT ? sonst langt auch ein GAMEPAD - sowas wie WINDELN für "echte zocker" XD

        Wenn ich "echte" qualisettings anmache ,geht jeder desktopkarte sooo schnell die luft aus.Deshalb warte ich als "echter depp" mit 30 zoll bzw eyefinity noch....
      • Von Löschzwerg BIOS-Overclocker(in)
        Mir fehlt die AAlchemy und die simFUSION 6000
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
681789
Grafikkarten
Die schnellsten Grafikkarten ihrer Zeit: 3D-Beschleuniger mit mehr als einer GPU [Update]
Seit den 90er-Jahren existieren Desktop-Grafikkarten mit mehr als einem Grafikprozessor - zur Ihrer Zeit meist die schnellsten Grafikkarten am Markt, zumindest nach blanker Betrachtung von Durchschnitts-Fps. PC Games Hardware wirft einen Blick zurück auf bekannte und exotische Multi-GPU-Grafikkarten. Heute wegen Crossfire Reloaded.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Die-schnellsten-Grafikkarten-ihrer-Zeit-3D-Beschleuniger-mit-mehr-als-einer-GPU-681789/
27.09.2012
http://www.pcgameshardware.de/screenshots/medium/2007/07/XGI_VolariV8Duo.jpg
geforce,radeon,grafikkarte,amd,nvidia
specials