Online-Abo
Games World
  • Geforce G210: Nvidias erste DirectX-10.1-Karte mit GT218-Chip im Test

    Im ersten Test der 40nm-Generation von Nvidia muss die Geforce G210 zeigen, was sie kann. Hat sich der Wechsel auf 40 nm, DirectX 10.1 und Co. für Geforce-Grafikkarten gelohnt? PC Games Hardware macht den Test.

    Lange hat Nvidia sich mit den ersten Geforce-Grafikkarten Zeit gelassen, die DirectX 10.1 unterstützen. Doch mit dem Schritt zu TSMCs aktuellem 40nm-Prozess haben die Kalifornier ihrer Geforce-Architektur nun, fast zwei Jahre nach AMD, auch Microsofts (noch) aktuelle API-Version erfolgreich beigebracht.

    Weiterhin spielt Nvidia aber die Bedeutung des .1er-Updates von DirectX 10 herunter. Kein Wunder, beherrschen doch nur die neuen Mobil- und einige, offiziell nur für den OEM-Markt verfügbare GPUs aus dem eigenen Hause den Funktionsumfang der API, während die Desktop-Modelle der Geforce GTX-Reihe weiterhin auf reines DirectX 10.0 setzen.

    Aus diesem Grunde gibt Nvidia sich vermutlich auch ungewohnt zugeknöpft, was Testmuster und sogar technische Daten angeht. So basieren denn auch alle Angaben in diesem Artikel auf den Informationen der Nvidia-Webseite und eigenen Messungen sowie Schlussfolgerungen.

    Geforce G210: Technische Daten
    Das Testmuster, eine Geforce G210, organisierten wir uns aus einem Ebay-Angebot. Ursprünglich stammte die Karte aus einem HP-Rechner und wurde vom Großserien-Ausrüster (OEM) Pegatron gefertigt. Bei der Geforce G210 handelt es sich um das kleinste Modell der neuen Reihe, welche auf dem GT218-Chip beruht. Die technischen Daten haben wir im Vergleich zur Geforce 9400 GT sowie den Radeon-Modellen HD 3470 und HD 4350 in der Tech-Tabelle hinterlegt:

    Grafikchip/KarteGeforce G210 (Pegatron)Geforce 9400 GTRadeon HD 4350Radeon HD 3470
    Chip/ProcessGT218 / 40nmG96 / 55nmRV710 / 55nmRV635 / 55nm
    DirectX-Version10.110.010.110.1
    Taktrate Chipkern (MHz)589550600800
    Taktrate Shader-ALUs (MHz)14021350600800
    Taktrate Speicher (MHz)499400500950
    Speicherausstattung (MiByte)512512256 - 512256 - 1.024
    Speicherbus (Bit)641286464
    SpeichertypDDR2DDR / DDR2DDR / DDR2GDDR3
    MAD-Leistung (GFLOPS)44,8643,29664
    Texturfüllrate (MTex/s)4.7124.4004.8003.200
    Speicherbandbreite (MByte/s)7,98412,8815,2
    Multi-GPUn. bekanntSLICrossfire-XCrossfire-X
    PCI-E.-Stroma. (6-Pin/8-Pin)0 x / 0 x0 x / 0 x0 x / 0 x0 x / 0 x
    Einbautiefe PCB (mm, ca.)168168168168
    Einbaubreite (Slots)1111

    GT218 Chip RulerGT218 Chip RulerQuelle: PC Games HardwareNatürlich haben wir uns auch die nackte Karte ohne Kühler angesehen: Der Grafikchip ist der kleinste, der bisher im Testlabor der PC Games Hardware per digitalem Meßschieber vermessen wurde: 57,3 mm² - leider ohne Angabe der Transistorzahl. Das sind 20 mm² weniger als wir beim RV710 (55nm) auf der HD 4350 gemessen haben. Bleibt die Frage, ob Nvidia auch genug Leistung in der winzigen Fläche unterbringen konnte.

    Geforce G210: Kühlung, Lautstärke und Leistungsaufnahme
    Die Karte selbst ist ziemlich winzig - gerade mal 168 Millimeter misst die Platine an sich in der Länge; die Höhe würde auch als Low-Profile-Version durchgehen, wenn eine passende Slotblende mitgeliefert würde (was bei Retail-Karten durchaus der Fall sein könnte). So benötigt die Geforce G210 jedoch volle Bauhöhe, da sie neben Dual-Link-DVI auch HDMI und einen D-Sub-Anschluss aufweist.

    Die Kühlung der Karte wird von einem Aktivkühler mit einfacher Bauhöhe gewährleistet, dessen 45 Millimeter durchmessender Radiallüfter die erwärmte Abluft Richtung der (geschlossenen) Slotblende befördert - ungünstigerweise erwärmt der Luftstrom dabei die komplette Elko-Phalanx, was deren Lebensdauer nicht gerade zuträglich sein dürfte.

    Unsere Messwerte der Lautstärke und Leistungsaufnahme finden Sie in folgender Tabelle - zum Vergleich haben wir bis auf die Temperaturen auch die entsprechenden Werte der passiv gekühlten HD 4350 von MSI aufgeführt.

    MesswerteGeforce G210 (Pegatron OEM)Radeon HD 4350 (MSI)
    Lautstärke Idle 0,5 / 25,1 (Sone/db(A))0 (Sone/db(A), passiv)
    Temperatur Idle 42 Grad Celsiusn. gem. Grad Celsius
    Leistungsaufnahme Idle 8,7 Watt7,2 Watt
       
    Lautstärke Race Driver Grid1,3 / 32,1 (Sone/db(A))0 (Sone/db(A), passiv)
    Temperatur Race Driver Grid61 Grad Celsiusn. gem. Grad Celsius
    Leistungsaufnahme Race Driver Grid19,5 Watt16,3 Watt
       
    Lautstärke Furmark2,8 / 42,5 (Sone/db(A))0 (Sone/db(A), passiv)
    Temperatur Furmark65 Grad Celsiusn. gem. Grad Celsius
    Leistungsaufnahme Furmark21,4 Watt17,6 Watt

    Zum Idle-Modus (dem ehemaligen 2D-Modus) haben wir noch ein paar interessante Beobachtungen gemacht: Neben den 3D-Taktraten gibt es noch zwei weitere in GPU-z angezeigte Stufen: 405/405 MHz für Kern und VRAM sowie 135/135 MHz für den Tiefschlaf. Offenbar ist aber die RAMDAC-Frequenz direkt an den Chipkerntakt gekoppelt: Sobald DVI Dual-Link-Geschwindigkeit (also zwei Transmitter mit je 165 MHz) gefordert werden - zum Beispiel bei Auflösungen über 1.920 x 1.200 -, bleibt die Taktabsenkung auf 405/405 MHz das Höchste der Gefühle, die 135er-Stufe fällt flach. Dasselbe Phänomen beobachteten wir an einem (DL-DVI) 30-Zoll-LCD, sobald die Auflösung über 1.280 x 800 angehoben wurde; ein 24-Zoll-LCD mit 1.920 x 1.200 dagegen ließ, per Single-Link ausreichend versorgt, auch die niedrigste Taktstufe zu. Zusammengefasst sieht das so aus:
    • 30-Zoll-LCD per DL-DVI-Anschluss, Auflösung > 1.280 x 800: 405/405 MHz
    • 24-Zoll-LCD per SL-DVI-Anschluss, Auflösung bis inkl. 1.920 x 1.200: 135/135 MHz
    • CRT-Monitor per Analog-Anschluss: Auflösung bis inkl. 1.920 x 1.200@60Hz: 135/135 MHz, bei höherer Auflösung oder höherer Bildwiederholrate in 1.920 x 1.200: 405/405 MHz

    Allerdings wirkt sich das auf die Idle-Leistungsaufnahme kaum aus: Im Vergleich zum in der Tabelle oben angegebenen Wert steigt die Leistungsaufnahme bei 405/405 MHz nur um 0,5 Watt, was nur knapp über der Meßtoleranz liegt.

    Nerviger war da schon der Bug in der Lüftersteuerung, den wir bei unserem Testmuster beobachten konnten: Sobald einmal Last anlag und die feinstufige Regelung mehr als die im Ruhemodus anliegendem 24% Lüfterdrehzahl erzeugte, blieb das Drehzahlniveau bis zum nächsten Reboot des Rechners auf dem höheren Niveau - nervig, wenn gerade Furmark gelaufen war und weiterhin 2,8 Sone erzeugt werden, um die lächerlich geringe Idle-Wärmeabgabe zu entsorgen. Wie in vielen günstigen Lüfterregelungen beginnt auch diejenige unseres Geforce-G210-Musters erst beim Laden des Treibers zu greifen - vorher liegen laute 6,2 Sone an.

    Geforce G210: Benchmarks
    Angesichts des absoluten Einsteigercharakters der Geforce G210 (und der zum Vergleich herangezogenen HD 4350) haben wir unsere Spiele-Benchmarks etwas angepasst. Zum Einsatz kommen etwas ältere Spiele ohne weitere Modifikationen, zusätzlich belassen wir die Auflösung bei 1.280 x 1.024 Pixeln und verzichten auf Kantenglättung und anisotrope Filterung. Um Vergleichbarkeit mit unseren sonstigen Benchmarks zu gewährleisten, haben wir weiterhin auf maximale Details sowie unser Standard-Testsystem für Grafikkarten gesetzt, auch wenn der Unterbau für die verwendete Klasse durchaus überdimensioniert erscheint. Bis Grafikkarten dieser Leistungsklasse durch die verwendete CPU limitiert werden, müssten wir vermutlich ans unsere Ende der erhältlichen Dualcores gehen.


    Durchgehend zeigt sich die HD 4350 der Geforce G210 überlegen. Je shaderlastiger das Spiel, desto höher die Überlegenheit der Radeon, auch wenn nur in zwei Fällen von beiden überhaupt die 20-Fps-Marke geknackt wird.

    Geforce G210: Was bringt DirectX 10.1?
    Natürlich wollten wir auch überprüfen, ob Nvidia-Karten ebenso von DirectX 10.1 profitieren, wie die Radeon-Modelle. Mittlerweile gibt es einige Spiele, welche DirectX 10.1 einsetzen, darunter Battleforge und Tom Clancy's Hawx . Nur bei ersterem gelang uns ein Nachweis von Beschleunigung durch DX10.1 - ein in dieser Leistungsklasse typisches Problem: Bereits in PCGH 06/2009 (S.74/75) konnten wir zeigen, dass langsame, rechenschwache Grafikkarten im Schnitt weniger von DirectX 10.1 profitieren als aktuelle TFLOPS-Monster, deren Recheneinheiten nicht schnell genug mit Daten versorgt werden können.

    Tom Clancy's Hawx aktivierte zwar auch den DX10.1-Modus, die messbare Performance blieb aber im Rahmen der üblichen Schwankungen gleich. Daher entschieden wir uns für den integrierten Battleforge-Benchmark mit niedrigen Details (Shader: Medium), aktivierten aber 2x MSAA und SSAO - beide Features profitieren von DirectX 10.1. Per config.xml-Datei erzwangen wir dabei die im Menü nicht angebotene 640x480-Auflösung.


    Auch hier liegt die Radeon deutlich vor der Geforce G210 - beide Modelle können jedoch von DirectX 10.1 profitieren: Die Radeon legt rund 7 Prozent zu, die G210 circa 10 Prozent: "Mission DirectX 10.1" ist also ein Erfolg, angesichts der erreichten Fps-Raten jedoch ein eher theoretischer.

    Geforce G210 (Pegatron): Fazit
    Der nicht primär für den Spiele-Einsatz konzipierte Chip mit einer Rechenleistung auf dem Niveau aktueller integrierter Grafikeinheiten, kann nur bedingt überzeugen. Von der Spieleleistung durfte man angesichts der Spezifikationen und der Positionierung nicht viel erwarten - trotzdem unterliegt er in der Fps-Schau der ähnlich im Markt platzierten Radeon HD 4350 recht deutlich. Beide Karten eignen sich höchstens, um alte Spiele ohne große Ansprüche laufen zu lassen und die User-Interfaces moderner Betriebssysteme zu beschleunigen, auch Video-Fans könnten Gefallen an der HD-Beschleunigung der Karte finden. Der Physx-Vorteil, den viele Geforce-Karten gegenüber den Radeon-Modellen aufweisen, entfällt hier: 16 Shader-ALUs sind zu wenig, um GPU-beschleunigte Physik im Treiber überhaupt aktivieren zu können, entsprechend fehlt das Schaltfeld. Über den potenziell besseren anisotropen Texturfilter der Geforce-Karte zu reden, wäre angesichts der Leistungsklasse Makulatur: Hier dürfte die spielbare Fps-Rate im Vordergrund stehen - um überschüssige Leistung in bessere Bildqualität zu investieren, ist die Geforce G210 einfach nicht das richtige Produkt.

    Der Technologie-Sprung auf DirectX 10.1 überzeugt hingegen: Wie die Radeon kann auch die Geforce von der derzeit noch aktuellen Microsoft-API profitieren. Weniger überzeugend ist die Umsetzung der 40nm-Technologie, was aber zum Teil auch unserem individuellen Testmuster geschuldet ist: Aktive, teils laute Kühlung muss bei einem 22-Watt-Chip nicht sein. Auch einen Verbrauchsvorteil konnten wir gegenüber der noch in 55nm gefertigten Radeon-Karte nicht feststellen.

    Somit bleibt die Geforce G210 eine Karte, die in erster Linie Nvidia glücklich machen dürfte. Bei einer Chipgröße von unter 60 mm² sind vermutlich sehr günstige Preise und hohe Stückzahlen möglich - zumindest bis DirectX 11 von den OEMs zur Pflicht erhoben wird, was schon im Herbst der Fall sein könnte. Aufrüstern, die nur wenig Geld ausgeben wollen, oder Videofreunde, denen die Spieleleistung schlicht egal ist, können ebenfalls zu einer Geforce G210 greifen, sollten jedoch besser nach einem passiv gekühlten Modell suchen.

    Im Preisvergleich von PC Games Hardware ist die Geforce G210 bisher nur als mobile Version im Rahmen von Notebooks gelistet.

    Wissenswert: Mehr Informationen zum Thema finden Sie in:
    Grafikkarten-Rangliste: 28 Radeon- und Geforce-GPUs im Benchmarkvergleich
  • Stellenmarkt

    Es gibt 36 Kommentare zum Artikel
    Von funhubble
    Joahh, läuft dat Dingen und wenn ich meine noch ältere HD34xx nicht verkauft hätte, wäre die sogar noch drin. Die…
    Von CL90
    Du Totengräber! Für HTPCs gibts heute ziemlich viele Karten, die nichts kosten (~50€ und die sicher auch später…
    Von funhubble
    Da die Karte für HTPC´s ja immer noch erhältlich ist und ich wissen wollte ob es ein Problem mit DTS-HD oder Dolby…
    Von AnthraX
    naja , also es ist schon nen hammer, ein schlechteres Produkt nach 2 jahren zu liefern. wie würden alle reden wenn AMD…
    Von michelthemaster
    Jaja, ich hör noch das Geschwätz von Nvidia, DX 10.1 brauch niemand usw. Auf dieser Karte brauch es sowieso niemand,…
      • Von funhubble Schraubenverwechsler(in)
        Zitat von CL90
        Du Totengräber!

        Für HTPCs gibts heute ziemlich viele Karten, die nichts kosten (~50€) und die sicher auch später einen 4K Film abspielen werden.





        Joahh, läuft dat Dingen und wenn ich meine noch ältere HD34xx nicht verkauft hätte, wäre die sogar noch drin.
        Die hätte ich mal besser behalten, die hat keinerlei mucken gemacht.
        Eigentlich sollte doch wirklich eine GT210 reichen oder ? Ich meine sie sollte ja nur den Ton durchschleifen an HDMI und das hat bisher ja auch geklappt.
        Hat mich eh gewundert dass mit dem alten Ding und dem alten Asus Soundchip DTS-HD MA und das TrueHD möglich sind.
        Ich nutze alles bis es bricht, aus dem Alter bin ich mit meinen fast fuffzig raus ständig an den PC´s zu basteln. Außerdem hab ich hier 6 PC´s am laufen zu halten, da muss man schon kucken.
        Kann auch sein dass du den alten Fred gemeint hast OK what ever....
      • Von CL90 Software-Overclocker(in)
        Du Totengräber!

        Für HTPCs gibts heute ziemlich viele Karten, die nichts kosten (~50€ und die sicher auch später einen 4K Film abspielen werden.
      • Von funhubble Schraubenverwechsler(in)
        Da die Karte für HTPC´s ja immer noch erhältlich ist und ich wissen wollte ob es ein Problem mit DTS-HD oder Dolby TrueHD gibt bei der HDMI Ausgabe ist es schade dass hier nur Spieletests stehen. Ich meine wer holt sich schon eine Karte mit einer "1" an zweiter Stelle zum spielen ?
        Vielleicht kann mir trotzdem jemand die Frage beantworten denn meine verbaute HD6570 hat schon länger sporadische kurze Bildaussetzer wobei dann auch der AV Receiver keine Toninfo mehr bekommt.
        Ich hatte das ganze über Koaxialkabel laufen aber darüber werden diese HD Audiospuren ja nicht übertragen sondern nur über HDMI.
        Die Karte soll in einen HTPC mit dem nur Filmmaterial gespielt wird und soll so billig wie nur irgend Möglich sein.
        Das hat den Grund dass ich für eine 4K Karte (soweit ich richtig recherchiert habe müsste das aktuell mind. eine GTX 750 sein) noch um die hundert Euro bezahlen müsste aber mein uralt Abspielsystem ein alter Pentium Dual-Core mit ASUS Sockel 775 und 2,4 Ghz wahrscheinlich gar nicht mehr für so eine Karte den Anschub leisten würde. So müsste ich dann das komplette System erneuern und dafür ist jetzt noch nicht die Zeit, da ich noch keinen 4K TV besitze.
        Deshalb soll es nur eine ganz billige FullHD Karte mit HDMI sein die auch meinen AV Receiver mit den HD Tonformaten versorgen kann, die 4K Problematik muss ich dann später mit einem komplett neuen System in Angriff nehmen, bis dahin soll es eine neue Karte sein die hauptsächlich keine Bildaussetzer mehr hat.
      • Von AnthraX Software-Overclocker(in)
        Zitat von Sularko
        Ist ja toll, das AMD die ersten waren. Und was hast Du heute davon ??
        naja , also es ist schon nen hammer, ein schlechteres Produkt nach 2 jahren zu liefern. wie würden alle reden wenn AMD heute ne karte launcht die der 8800GTX ebenbürtig ist. es ist einfach ne schlechte leistung seitens Nvidia.
      • Von michelthemaster Software-Overclocker(in)
        Jaja, ich hör noch das Geschwätz von Nvidia, DX 10.1 brauch niemand usw. Auf dieser Karte brauch es sowieso niemand, das steht fest

        Seit dem ganzen Umbenennungszeug ist mir Nvidia wirklich unsympatisch geworden, und ich denke da bin ich nicht der Einzigste. Hatte früher immer NVidia, aber alles was die so in letzter Zeit machen, find ich zum ******. Daher hab ich heute auch ne Radeon 4870 im Rechner, ist auch super. Was ich aber das größte finde: Das die GTX 280 und GTX 260 im Notebook garnicht auf der neuen Generation beruhen, dass ist sowas von eine Kundenver****e das gibts garnicht. Bei AMD sind zumindest nahezu ähnliche Chips wie beim Desktop verbaut, nicht alter G92 Kram.

        Gruß

        Michel
  • Print / Abo
    Apps
    PC Games Hardware 08/2016 PC Games 08/2016 PC Games MMore 08/2016 play³ 08/2016 Games Aktuell 08/2016 buffed 08/2016 XBG Games 03/2016
    PCGH Magazin 08/2016 PC Games 08/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
694172
Grafikkarten
Geforce G210 (40nm)
Im ersten Test der 40nm-Generation von Nvidia muss die Geforce G210 zeigen, was sie kann. Hat sich der Wechsel auf 40 nm, DirectX 10.1 und Co. für Geforce-Grafikkarten gelohnt? PC Games Hardware macht den Test.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Geforce-G210-40nm-694172/
03.09.2009
http://www.pcgameshardware.de/screenshots/medium/2009/08/Geforce_G210_PCGH_3.JPG
Nvidia, Geforce, G210, GT218, DirectX 10.1, Grafikkarte, Test
tests