Online-Abo
  • Login
  • Registrieren
Games World
      • Von StefanW12345 Kabelverknoter(in)
        Noch immer so lange warten!
      • Von majinvegeta20 Lötkolbengott/-göttin
        Zitat von John-800
        Können sich ruhig en halbes Jahr zeit lassen. Hab notgedrungen eine Palit 580 kaufen müssen, da meine EVGA 580 SC leider das Zeitliche segnete. Wenn ich nur wüsste warum dem so ist... Hofentlich läuft die RMA positiv aus, dann steht ein GTX580 SLI system an.
        Die Palit mit den 2 Lüftern ist aber auch ein "Ohrenbetäubendes" Geschoss "G" Wakü muss her....

        Einfach Lüftersteuerung einrichten und das war´s.
        Meine läuft in Games mit ca 40% Umdrehung und ich höre sie so gut wie gar nichts mehr.

        Zitat von Jan565
        Wenn das stimmen sollte ist Kepler mehr als nur ein Flop und wird AMD hinter her hinken. Wovon ich auch mal ganz stark ausgehe. Die nächste NV Generation wird wieder das, was die 500er war.
        Sie mal einer an.
        Wir haben hier wieder Leute, die scheinbar ne eigene Glaskugel bei sich zu Hause stehen haben.

        Wer dieser "fake" Roadmap glauben schenkt, dem ist sowieso nicht mehr zu helfen.
        Also Leute denkt mal ein bissel nach bitte.
      • Von cuthbert Software-Overclocker(in)
        Zitat von Sturmtank
        Aber trotz alldem könnt ich mir vorstellen dass die 670 etwas schneller ist als die 580 und trotzdem weniger braucht.
        So eine Entwicklung kann sich doch sehen lassen.
        Sorry, alles andere wäre aber auch ziemlicher Fail bei nem Sprung von 40 auf 28nm. Kleinere Strukturgröße geht afaik immer mit weniger Verbrauch einher. D.h. GF110 geshrinkt wäre immer noch so schnell wie der GF110, das aber bei weniger Verbrauch. Sollte die neue GPU genauso viel verbrauchen bei gleicher Leistung, müsste also die Architektur ineffizienter geworden sein, also ein Rückschritt statt nem Fortschritt.

        Von daher alles nur Spekulatius, ich geh schon mal von aus, dass die neue Gen effizienter wird, alles andere macht keinen Sinn (ok Bulldozer hat gezeigt, dass so was doch möglich ist^^).

        Interessant, dass erst die kleinen Modelle kommen sollen. Naja gut, die aktuellen verkaufen sich ja wahrscheinlich noch gut und kann sein, dass sie nicht direkt komplett auf 28nm umstellen, sondern erst mal 32nm weiterlaufen lassen und erst mit den umkomplizierteren Chips die neue Technik testen.
      • Von Manner1a PC-Selbstbauer(in)
        Zitat von Ahab
        Was erwartest du denn?! High End bei 50W? Wer Leistung generieren will, produziert nunmal zwangsläufig Abwärme und je mehr Leistung, desto mehr Abwärme.

        Oder meinst du Nvidia produziert jetzt nur noch Einsteiger-Karten, um Mutter Erde einen Gefallen zu tun? 250W für Highest End haben sich nun mal etabliert.

        250W finde ich in Ordnung, weil die Performance bei Volllast doch enorm ist im Vergleich zu älteren Grafikkarten. Bei modernen Automotoren (unabhängig wie schwer das Auto ist, das sie bewegen müssen), wurde sowohl der Minimalverbrauch gesenkt, als auch der Maximalverbrauch erhöht bei mehr Leistung. Ein anpassungsfähiger Motor, der weniger und mehr verbrauchen kann= die Spanne ist bei höherer Performance erhöht worden.

        Das könnte man auch bei Prozessoren zwischen Intel und AMD sagen, wo die Unterschiede je nach Modell auch groß ausfallen. Mit moderneren Grafikkarte in der Zukunft wird´s weniger Minimalverbrauch geben und mehr Maximalverbrauch. Eine an die jeweilige Situation angepasste Technik. Der Verbrauch dürfte bei gleicher Last insgesamt sinken. Aktuell halte ich die CPUs gerade für fortschrittlicher, gerade wenn man ein Gaming-System erwartet, in dem CPU und GPU ungefähr gleich viel verbrauchen sollen.

        Rein wirtschaftlich halte ich einen höheren Maximalverbrauch bei steigender Performance und einen geringeren Verbrauch bei vergleichbarer Teillast bei heutigen Grafikkarten für unproblematisch. Mal angenommen, ich werde mir einen GTX 680 kaufen und sie zunächst einmal gar nicht voll auslasten können, gehe ich von einer besseren Performance pro Watt aus (geringerer Verbrauch bei gleicher Perfromance) aus im Vergleich zu meiner GTS 250. Immerhin wird so ein Top-Modell was Speicher, Takt etc. angeht nicht beschnitten sein. Ich hoffe, ich irre mich da nicht. Alles cool
      • Von borni Software-Overclocker(in)
        Zitat von hfb
        Du konterst also Gerücht A mit Gerücht B.
        Klasse.
        Abgesehen davon haben sich 250 Watt tatsächlich etabliert, wenn auch nicht in deinem Rechner, also was soll das Gefasel?

        Ist ja auch nur TPD. Ich hab mit meinem Rechner, inklusive Monitor und Teufel 5.1 beim zocken um die 350-400 Watt verbrauch. Da können nicht 250 Watt von der GTX kommen! Und ich spiele ja nicht rund um die Uhr. Im Desktop-Betrieb sind es um die 130 Watt. Da kann ich ganz gut mit leben, vor allem Wenn man bedenkt das vor eine paar Jahren noch Glühbirnen Standard waren, wo 2 Stück auch mal gut 120 Watt gebraucht haben!^^
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
856528
Grafikkarten
Grafikkarten
Aus Japan stammt eine Roadmap, die die Pläne von Nvidia für Desktop-Grafikkarten mit 28-nm-Grafikchips enthalten soll.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Grafikkarten-856528/
26.11.2011
http://www.pcgameshardware.de/screenshots/medium/2009/05/nvidia-logo.jpg
kepler,grafikkarte,nvidia
news