Online-Abo
Games World
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Zitat von M4xw0lf
        Im Fall der 660Ti greift dieses Argument nicht, da das 256bit SI ja physisch eh vorhanden ist. Da wäre meiner Meinung nach auch weniger Shader + 256bit SI das bessere Produkt gewesen. Der GK106 in der GTX 660 spart aber natürlich Chipfläche durch das kleinere Interface.


        Die 660ti ist ja auch eher eine Resteverwertung, die nicht ohne Grund erst solange nach Beginn der GK104 Produktion erscheint. Hier ging es eben um den GK106 und warum der kein größeres Interface hat


        Zitat von Push
        aha und Nvidia hat wahrscheinlich absichtlich die Karten erst sooo spät auf den Markt gebracht ?
        btw allzulange dauert es nicht mehr und man wird was von AMD's neuer Serie hören
        irgendwie schafft es AMD ja relativ häufig ihre Karten Ende Q4 ( Kalender Quartal ) herauszubringen ...


        Möglich ist das, aber alzu viel würde ich mir da nicht versprechen. AMD hat keine neue Architektur geplant (und die Transistoreffizienz ist in der Vergangenheit mit Architekturwechseln eh alles andere als explodiert) und TSMC keinen neuen Fertigugnsprozess im Angebot. Das heißt jede nenneswerte Leistungssteigerung wird zu Lasten von Verbrauch und Herstellungskosten gehen, grandios überlegene Karten werden wir nicht zu sehen bekommen. Mit etwas Glück bügelt AMD die letzten Qualitäts-Schwachpunkte aus und optimiert den Boost ein bißchen. Aber letzteres ist den hiesigen OCern ja eh nicht so wichtig.


        Zitat von Chimera
        @PCGH_Raff: Was ist eigentlich an den Gerüchten dran, dass NV den Chip der GTX 660 um einige Shader, nen Cluster und 16 TMUs beschnitten haben soll? Denn ursprünglich ging man bei der GTX 660 ja mal von 1152 Shader, 6 Cluster und 96 TMUs aus, wobei dies ja auch nur Vermutungen waren.


        Vermutungen gab es VERDAMMT viele, Nvidia behauptet für die 660 jedenfalls, dass es der Vollausbau ist. Da der GK106 auch den Anschluss zum GK107 (2 Cluster...) halten muss, klingt das auch realistisch.
      • Von Agr9550 Freizeitschrauber(in)
        Zitat von Chimera


        Sagst DU und mag für DICH vielleicht stimmen, nur gibt es ebenso Leute auf dieser Welt, die absolut rein gar nix mit den AMD Grakas anfangen können (da es den Namen ATI ja schon laaaange gar nicht mehr gibt), wie ich z.B. Selbst wenn ne HD7970 nur 50.- wär und ne GTX 650 300.-, würd ich dennoch keine HD holen gehen, da sie mir einfach absolut rein gar nix bieten kann. Und ja, liegt vorallem an den negativen Erfahrungen mit den HD4000 und HD5000 Karten, die ich mir da angetan hatte und da bin ich nun mal sehr nachtragend. Keine Frage, gegen AMD selber hab ich gar nix, denn es werkeln ja immo gleich 2 CPUs von denen bei mir und drei (schwache) liegen noch auf Notreserve im Schrank, aber mit Grakas von denen kann man es mir(!!!) jedenfalls nicht mehr recht machen. Da mögen andere halt noch so von schwärmen und sie hochjubeln.
        Gibt übrigens ebenso Leute, die auf gar keinen Fall je mehr ne NV Karte kaufen werden, egal ob die nun besser abschneidet oder nicht und wie willst du jene Leutz dann nennen, wenn die NV-Käufer für dich Fanboys sind? Etwa Fangirls? Nix ernst gemeint, also bitte nicht falsch verstehen. So was kann man Fanboy-Getue nennen, wenn es sich um nen 10 oder 12 jährigen Nutzer handelt, aber bei nem Erwachsenen mit 30, 40 oder gar 50 Jahren, der nun mal für einen Hersteller seine Vorlieben hat, hat es nix mehr mit Fanboy-Getue zu tun.


        im gewissen sinne is das fanboy gehabe
        du sagst ja selber selbst,wenn die karten schneller wären du würdest es nicht kaufen und warum weil mal schwarze schaffe erwischt hast (das kann jedem passieren > neue serie neues glück )
        ich würde JEDE karte kaufen egal welcher name draufsteht solang preis/leistung stimmt

        ich halt z,b vom amd cpus rein garnichts was einige sagen das is mega intel fanboy,falsch bei cpus is einfach ein der unterschied größer
        vorallem kaufste cpus ned jedes jahr oder gar alle 2j ich zumindest ned,grafikkarten hingegen kauf ich dann wenn sie benötigt werden da ich ne n 5870 + ne 5970 hatte ging mir JETZT nach 2j einfach der speicher aus

        ich sags dir offen und ehrlich ich hab vor 2tage meine 7970 bekommen ich hätte gern mal ne NV gehabt spez. ne gtx 680 ABER als ich den preis gesehn hab für karten die ich wakü einbinden kann hat mein inneres gesagt "nö def NICHT da bekomm ich ne amd (ati,sag immernoch ati da amd für mich einfach der name der cpus is wenn im gpu z mal AMD steht statt ati sag ich auch amd ;D) + kühler "

        das echt schade wenn mal 90% der leuts die für das geld sich ne nv kaufen ne ati kaufen würden hätten wir alle was von den nv würde ganz schnell einsehen das die preis unmenschlich hoch sind

        ich denk wir beide haben da nen stückweise recht
      • Von KrHome BIOS-Overclocker(in)
        Zitat von gustlegga
        Keine flüssigen Bildraten in Metro @ 1080 und das schon bei deaktivierter Physikberechnung,
        und dann gibts doch tatsächlich Leute die immer wieder PhysX als Kaufargument bei Mittelklasse- & Einsteigerkarten anführen.
        Was ist das denn für eine blöde Argumentation? Ausgerechnet Metro, was eh schon ein mieserables Performance/Optik Verhältnis hat, anzuführen. Auf das eine Metro Beispiel kommen 10 andere PhysX Spiele, die mit der Karte super laufen. Überhaupt tut man sich schwer, wenn man schon einige PhysX Titel hat, die man immer mal wieder gerne spielt, jetzt eine Radeon zu kaufen um dann in einer "toten" Welt rumzurennen.

        @topic:
        Die Karte ist ein Witz, wie die gesamte aktuelle Generation. Viel zuwenig Leistung für den Preis. 1,5 Jahre nach der 560Ti kommt eine Karte, die 25% schneller ist, für den selben Einstandspreis auf den Markt. Wen soll das hinter dem Ofen hervorlocken?
      • Von Gamiac Software-Overclocker(in)
        Nice nice aber die 7870 ist für mich immer noch das beste was man sich als gamer in den rechner stecken kann .
      • Von Chimera Sysprofile-User(in)
        @PCGH_Raff: Was ist eigentlich an den Gerüchten dran, dass NV den Chip der GTX 660 um einige Shader, nen Cluster und 16 TMUs beschnitten haben soll? Denn ursprünglich ging man bei der GTX 660 ja mal von 1152 Shader, 6 Cluster und 96 TMUs aus, wobei dies ja auch nur Vermutungen waren. Aber damit wäre die Karte wohl viel eher auf nem guten Niveau mit der HD7870 gewesen und weniger wie jetzt zwischen den beiden HD7800. Wobei man sagen muss, dass die Vermutungen mit 1152/6/96 ja auch nur auf Hochrechnungen basierten (im 3Dcenter Forum z.B.: 3DCenter Forum - Diskussion zu: nVidias GK106-Chip kommt mit ~240mm² Chip-Fläche und möglicherweise... ), die anhand der Chipfläche erstellt wurden.
  • Print / Abo
    Apps
    PC Games Hardware 09/2016 PC Games 10/2016 PC Games MMore 10/2016 play³ 10/2016 Games Aktuell 10/2016 buffed 10/2016 XBG Games 09/2016
    PCGH Magazin 09/2016 PC Games 10/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1023513
Grafikkarten
Geforce GTX 660 im Test: Nvidias Kepler für die Masse
Die Geforce GTX 660 ist da: Ein halbes Jahr hat es gedauert, aber nun betritt die erste Kepler-Grafikkarte für knapp über 200 Euro die Bühne. Was Nvidias erste Grafikkarte mit dem GK106-Chip leistet und ob AMDs Radeon-HD-7800-Geschwister geschlagen sind, klärt der Test der Geforce GTX 660.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Tests/Test-der-Geforce-GTX-660-1023513/
13.09.2012
http://www.pcgameshardware.de/screenshots/medium/2012/09/GTX_660_Review_PCGH_Aufmacher2_b2teaser_169.jpg
grafikkarte,nvidia,kepler,geforce
tests