Online-Abo
  • Login
  • Registrieren
Games World
      • Von Ob4ru|3r PCGH-Community-Veteran(in)
        Zitat von rubberduck
        Wäre ja nnicht Schlecht wenn du diesen Spruch noch untermauern könntest.

        Ich lese hier nur das die Gpu schneller werden soll usw. Mich Interessiert aber vielmehr wieviel Strom die Karte dann zieht und wie die Leistung dazu im Verhältnis ist. Das sind die Kriterien die mich pers. Interessieren.

        Was nützt mir in der jetzigen Zeit eine Grafikkarte, bzw. Cpu wenn sie nach einer Stunde intensiven Spiels die Stromrechnung mein Konto plündert

        MfG rubberduck
        Man lese meinen Post auf dieser Seite etwas weiter oben
      • Von tils Freizeitschrauber(in)
        stromverbrauch ist idle besser.gtx280 imerhin die schnellste einzel-karte. ich mag nvidia überhaupt nicht, würde es aber trotzdem nicht als blamage bezeichnen.

        mich fuchst es halt, das amd seit der nV 88er-Reihe die single-chip krone verloren hat.
      • Von rubberduck128 Kabelverknoter(in)
        Zitat von Ob4ru|3r
        Müssen die auch, die haben sich mit dem GT200 in der Hinsicht schlicht blamiert ^_^
        Wäre ja nnicht Schlecht wenn du diesen Spruch noch untermauern könntest.

        Ich lese hier nur das die Gpu schneller werden soll usw. Mich Interessiert aber vielmehr wieviel Strom die Karte dann zieht und wie die Leistung dazu im Verhältnis ist. Das sind die Kriterien die mich pers. Interessieren.

        Was nützt mir in der jetzigen Zeit eine Grafikkarte, bzw. Cpu wenn sie nach einer Stunde intensiven Spiels die Stromrechnung mein Konto plündert

        MfG rubberduck
      • Von y33H@ BIOS-Overclocker(in)
        Die 280 ist schon brachial, aber eben nur mit Settings, die kaum einer nutzt. Daher greifen viele zur günstigeren Konkurrenz.

        cYa
      • Von Ob4ru|3r PCGH-Community-Veteran(in)
        Zitat von tils
        Man kann`s auch übertreiben...
        Wie bezeichnest du das denn sonst ?! Als Oberklasse/High-End gelauncht, von AMD dann mit Mittelklasse/Performancekarten zum Preis-Drop gezwungen, und dabei trotzdem immer noch mehr an Strom verbrauchen.

        Die Situation entstand, als man zu selbstsicher den klar überlegenen G80/G92 nicht konsequent weiterentwickelt hat (wie AMD, die haben ihre GPU in allen Teilen überarbeitet und die Effizienz enorm gesteigert) , sondern einfach auf dem Die mehr Recheneinheiten und ein dickeres Interface verbaut .... das wars im Groben mit der "Überarbeitung", sieht man anhand von Die-Shots sehr schön, da verwundert auch nicht die laute Kühlung im Vergleich zur Vorgängergeneration, die eigentlich auf den gleichen Kühler setzt ... der GT200 ist wegen seines "BruteForce" - Konzeptes einfach ein Hitzkopf, und da muss der selbe Kühlkörper halt mit höherer Drehzahl arbeiten ....

        Gesamt betrachtet ist der GT200 eine Blamage, wenn man bedenkt, von was für einem hohen Hügel nVidia da ins Jammertal hinab gestiegen ist, nur weil die AMD schlicht unterschätzt haben ...
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
661999
Grafikkarten
GT200 Nachfolger unterwegs
Nvidia plant aktuellen Gerüchten zufolge den Umstieg auf die 40 Nanometer Produktion im Frühjahr des nächsten Jahres.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/GT200-Nachfolger-unterwegs-661999/
01.10.2008
http://www.pcgameshardware.de/screenshots/medium/2008/06/Geforce_GTX280_Test_023.JPG
Nvidia, 40 Nanometer, Geforce, G92. GPU
news