Online-Abo
  • Login
  • Registrieren
Games World
      • Von Namaker Software-Overclocker(in)
        Zitat von Bucklew
        Das allerdings bisher nur Nvidia Fortschritte in Sachen Microrucklern gemacht hat und ATI da seit Jahren auf der Stelle tritt, ist wirklich traurig.
        Kein Geld?

        Dass der GT300 schneller wird als die 5870 ist klar, aber:
        -ATi hat von der 4890 auf die 5870 ALLE Einheiten verdoppelt
        -nVidia hat von der GTX285 auf die GTX380 die Shader verdoppelt und die Taktrate um 15% erhöht, die TMUs um 60% erhöht und die ROPs um 50% erhöht.

        Die 5870 ist ca. 40% schneller als die 4890. 2*5870 sind noch mal 50% schneller als eine einzelne. Warum sollte die GTX380 dann doppelt so schnell wie eine GTX285 sein?
      • Von Bucklew Gesperrt
        Zitat von Blackiwid
        AMD hats bei cpus vorgemacht wie man effizient wenige verschiedene designes ausnutzt. Bei den GPUs hat man da wohl auch noch mehrere Chips, das wird dann aber mit dem zunehmenden durchsetzen von multi-gpu karten irgendwann auch verschwinden aber man baut wenigstens keine monsterchips mehr sondern ersetzt wenigstens das highend durch mehrere kleine.
        Wie man an den Microrucklern sieht, ist Multi-GPU der falsche Weg. Zumindest für Leute, die wirklich spielen wollen. Angesichts dessen, dass ATI ja den Weg von kleinen, kombinierten Chips schon seit Jahren vertritt, hätte ich mir von ihnen eigentlich schon längst einen Fortschritt in Sachen Microrucklern erwartet. Im Endeffekt sogar eigentlich, dass sie das Problem Microruckler komplett lösen. Das ist wohl das Mindeste, um eine Dual-GPU-Karte als Pendant zu einer Single-GPU-Karte verkaufen zu können. Das allerdings bisher nur Nvidia Fortschritte in Sachen Microrucklern gemacht hat und ATI da seit Jahren auf der Stelle tritt, ist wirklich traurig.

        Zitat von Blackiwid
        Wenn Nvidia glück hat holen sie jetzt wieder mit nem trotzdem relativ großen chip das highend zurück 1chip vs 1chip, aber preisleistung wird man wohl wieder keine change haben, dazu noch die 3-5 Monatige verspätung, und wer weiß wie lange die dann noch brauchen um dann die 2Core version von amd abzulösen.
        Nach allen bisherigen Spezifikationen scheint wohl der Fermi in Single-Konfiguration den geplanten X2s von ATI kräftig Feuer unter dem Hintern zu machen. Ein paar Monate Verspätung sind auch normalerweise kein Problem, das hatten sowohl Nvidia (GeForce FX) als auch ATI (Radeon X1000) immer wieder mal und trotzdem leben beide heute noch.

        Zitat von Blackiwid
        Freut mich wirklich für amd jahrelange gute arbeit zahlt sich aus und so wie es aussieht muss nvidia die Marktführerschaft bald abtretten.
        Na da bin ich mal gespannt, ob wir diesen Sankt Nimmerleinstag noch erleben werden?
      • Von kuer BIOS-Overclocker(in)
        Zitat von Blackiwid
        ja schön, dann gibts 20 verschiedene chiplayouts am ende, was die kosten auch wieder hoch hält, und bei der letzten nvidia generation hat man gesehen wie schwer es schon ist wenige chips fehlerfrei zu bauen wenn man dann zig verschiedene layouts hat wird dies noch schwieriger, meiner ansicht nach mal wieder der falsche weg.

        AMD hats bei cpus vorgemacht wie man effizient wenige verschiedene designes ausnutzt. Bei den GPUs hat man da wohl auch noch mehrere Chips, das wird dann aber mit dem zunehmenden durchsetzen von multi-gpu karten irgendwann auch verschwinden aber man baut wenigstens keine monsterchips mehr sondern ersetzt wenigstens das highend durch mehrere kleine.

        Wenn Nvidia glück hat holen sie jetzt wieder mit nem trotzdem relativ großen chip das highend zurück 1chip vs 1chip, aber preisleistung wird man wohl wieder keine change haben, dazu noch die 3-5 Monatige verspätung, und wer weiß wie lange die dann noch brauchen um dann die 2Core version von amd abzulösen. Freut mich wirklich für amd jahrelange gute arbeit zahlt sich aus und so wie es aussieht muss nvidia die Marktführerschaft bald abtretten.

        Schon alleine das Interview wo der gute gesagt hat das für ihn Hardware nicht so wichtig sei, dazu das gequatsche das dx10.1 nicht wichtig sei und jetzt nicht mal dx11 (bzw entsprechende opengl versionen) zeigt doch das nvidia sich nur noch auf cuda und physix konzentriert und alles darauf setzt, die Technik wird man aber nicht gegen Intel (Marktführer im grafikchip markt) und AMD (baldiger Marktführer bei dedizierten grafikkarten) durchdrücken können. amd hat ja jetzt nen offenen standard für physik auf opencl und oder dx11 angekündigt. Bei Dell und co hats Nvidia auch weitgehenst verschissen, dazu die arogante haltung gegenüber freien standards und Linux, sorry Nvidia RIP


        Im großen und ganzen gebe ich dir recht. Nur darfst du nicht vergessen das NV immer noch der größte Fisch im Teich ist und das nicht um sonst.
        Allerdings ist alles was bis jetzt von NV gekommen ist heiße Luft. Erzählen kann man viel. Den Beweis ist NV bis jetzt schuldig geblieben, wie die Vorstellung des .... Dummis.... bewiesen hat. Wie flecksiebel der Chip ist wird man sehen. Ich glaube NV im Moment nichts mehr. Sie haben zu viel versprochen und bis jetzt nichts gehalten. Ich warte mal ab
      • Von Blackiwid Komplett-PC-Käufer(in)
        ja schön, dann gibts 20 verschiedene chiplayouts am ende, was die kosten auch wieder hoch hält, und bei der letzten nvidia generation hat man gesehen wie schwer es schon ist wenige chips fehlerfrei zu bauen wenn man dann zig verschiedene layouts hat wird dies noch schwieriger, meiner ansicht nach mal wieder der falsche weg.

        AMD hats bei cpus vorgemacht wie man effizient wenige verschiedene designes ausnutzt. Bei den GPUs hat man da wohl auch noch mehrere Chips, das wird dann aber mit dem zunehmenden durchsetzen von multi-gpu karten irgendwann auch verschwinden aber man baut wenigstens keine monsterchips mehr sondern ersetzt wenigstens das highend durch mehrere kleine.

        Wenn Nvidia glück hat holen sie jetzt wieder mit nem trotzdem relativ großen chip das highend zurück 1chip vs 1chip, aber preisleistung wird man wohl wieder keine change haben, dazu noch die 3-5 Monatige verspätung, und wer weiß wie lange die dann noch brauchen um dann die 2Core version von amd abzulösen. Freut mich wirklich für amd jahrelange gute arbeit zahlt sich aus und so wie es aussieht muss nvidia die Marktführerschaft bald abtretten.

        Schon alleine das Interview wo der gute gesagt hat das für ihn Hardware nicht so wichtig sei, dazu das gequatsche das dx10.1 nicht wichtig sei und jetzt nicht mal dx11 (bzw entsprechende opengl versionen) zeigt doch das nvidia sich nur noch auf cuda und physix konzentriert und alles darauf setzt, die Technik wird man aber nicht gegen Intel (Marktführer im grafikchip markt) und AMD (baldiger Marktführer bei dedizierten grafikkarten) durchdrücken können. amd hat ja jetzt nen offenen standard für physik auf opencl und oder dx11 angekündigt. Bei Dell und co hats Nvidia auch weitgehenst verschissen, dazu die arogante haltung gegenüber freien standards und Linux, sorry Nvidia RIP
      • Von John-800 Freizeitschrauber(in)
        Ist doch egal wie gross der Chip ist, solang jener im idle sich seeeehr genügsam zeigt, im 3D auch weiß, daß es Strom net umsonst gibt und neuerdings dann wohl, da nvidia ja ach so modular geworden ist, entsprechend nach application unnötigen Quark vom Netz trennt um so zusätzlich Strom zu sparen.

        GT300 hat brachiale Leistung? we will see
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 12/2016 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
696559
Grafikkarten
Mainstream-Fermi ohne Double-Precision möglich
Nvidias Fermi-Architektur ist weit modularer als es bisher den Anschein hatte. Das könnte die Eignung und das Preis-Leistungsverhältnis von Fermi-basierten Grafikkarten für die Mittelklasse und den Spielermarkt nachhaltig beeinflussen. Andy Keane, Nvidias General Manager für Tesla, verriet Details im Gespräch mit PC Games Hardware.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Mainstream-Fermi-ohne-Double-Precision-moeglich-696559/
03.10.2009
http://www.pcgameshardware.de/screenshots/medium/2009/10/Nvidia_Fermi_Tesla_PCGH_13.JPG
fermi
news