Online-Abo
  • Login
  • Registrieren
Games World
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Zitat von Brauseklaus
        .......grenzwertig? Du meinst groß, stromhungrig und ineffizient?
        Da weißt du aber mehr als wir.


        Nein, damit meinte ich nur groß, komplex und hoch getaktet.
        So einen Chip in großen Stückzahlen zu produzieren, ist schwierig.

        Zu ineffizient und stromhungrig kenn ich nur den Computerbase-Test, in dem die Leistung/Transistor aber schlechter als bei rv770 und GT220b ausfällt. (die Verlustleistung unter Last kann man bei der ""Last"" nur sehr schlecht beurteilen. Idle hat man endlich die Fehler behoben, die man seit Ewigkeiten verkauft)

        Zitat von Zerebo
        Ist es nicht sowieso normal das der Großteil der Karten für Oem's ist?Der Retail Markt ist doch ziemlich klein im gegensatz zum Oem Markt,oder seh ich das falsch?


        Nicht in dieser Preisklasse, da geht der Löwenanteil via Retail raus.
        Kleine Karten, die niemand gezielt kaufen würde und die für "ich will einen PC kaufen, kein Studium in Computerwissenschaften absolvieren"-08/15-User ausreichen, werden in riesigen Stückzahlen via OEM umgesetzt.

        Zitat von elakeduck
        das würde ja bedeuten das nV auf 55nm setzen müsste. ich glaub das das technisch schon garnicht machbar ist. die chips der 300er-reihe müssten bei der komplexität ja dann schon so groß wie herdplatten sein


        G80 und GT200a machens vor - Nvidia hat sich davon in der Vergangenheit nicht beeindrucken lassen. Und neben TSMC gibt es auch noch zwei weitere Auftragsfertiger.



        Zitat von steinschock
        @ ruyven
        der G300 wird auf jeden Fall in 40nm hergestellt, das ist offiziell.


        Quelle?

        Zitat von jojo0077
        Außerdem ist der 40nm-Prozess ja schon länger auf dem Markt und es ist gut möglich, dass Nvidia einfach von vornherein mit 40nm geplant hat und aber damals noch nicht wissen konnte, dass es solche Probleme gibt.


        Auf alle Fälle kann er jetzt bei AMD reifen, bis Nvidia ihn braucht

        Zitat
        GF soll auch GPUs produzieren aber erst mit den kommenden Verfahren. Der 45nm-Prozess ist für heutige GPUs garnicht geeignet soweit ich weiß.
        In 32nm oder 28nm sollen dann auf jeden Fall GPUs gefertigt werden. Die von AMD auf jeden Fall aber evtl. auch von Nvidia.
        Von daher lagst du nicht ganz daneben


        32nm wurde vollmundig für Anfang 2010 angekündigt.
      • Von jojo0077 Freizeitschrauber(in)
        Zitat von Bucklew
        Das sind TDP-Angaben, die nichts mit der wirklichkeit zu tun haben. In der Realität waren es dann 226W (GTX280) vs. ~210W (GTX285). Und auch die Idle-Werte waren nun wirklich nicht schlecht auch bei 65nm - vorallem im Vergleich zu Konkurrenz. Nachzulesen u.A. bei Wikipedia, HT4U oder auch PCGH.
        Im Idle steht es 42 vs 29 Watt. Ist doch ein ordentlicher Unterschied wie ich finde. Das der RV770/790 Probleme hatte im Idle ist keine Frage, steht aber auch garnicht zur Diskusion.
        Dennoch ist es nicht abzustreiten, dass der GT200 Probleme mit der Leistungsaufnahme (3D) hatte. Oder was meinst du warum der GT200 so niedrig getaktet wurde? Nvidia hätte sicherlich liebend gern die 1TFLOPs-Marke gebrochen wenn sie es gekonnt hätten.

        Ganz nebenbei hast du mich vor einiger Zeit mal zu Recht korrigiert. Die TDP bezeichnet die Abwärme, die der Kühler von der GPU abführen muss (im schlimmsten Fall). Die Tatsächliche Leistungsaufnahme ist etwas ganz anderes. Diese wird schließlich nicht nur von der GPU generiert. Das PCB der GTX285 war ja deutlich billiger als das der GTX280. Es ist also gut möglich, dass hier auch die Effiziens gelitten hat.

        Zitat

        Das wird immer gern behauptet, Zahlen gibt es dazu nicht und Beweise noch viel weniger. Stromverbrauch s.o. und man darf nie vergessen, dass sich TSMC natürlich 55nm gegenüber 65nm teuer bezahlt hat lassen - vorallem in der Anfangsphase. Ich kenn die Preise pro Chip leider nicht, wenn du sie kennst nur raus damit.
        Zahlen gibt es aber die nimmst du ja nicht an. Mehr als Gerüchte wirst du zu den Thema nie bekommen. Beweise wird es nie geben weil die Firmen damit nicht rausrücken.

        Wenn es keine Fakten gibt muss man sich eben nach den Indizien und Gerüchten richten und die sprechen eine eindeutige Sprache:

        Die Yields waren schlecht und der Chip (auch wegen den Yields) sehr teuer. Warum auch sonst hatte Nvidia es so wahnsinnig eilig den GT200b rauszubringen wenn der GT200 doch so toll und konkurrenzfähig war? Da hätten sie ihre Kapazitäten auf andere Entwicklungen konzentrieren können.

        Woher nimmst du, dass 55nm so deutlich teurer waren? Du bist der Einzige von dem ich diese Beauptung je gehört habe. Ich habe noch bei keiner Quelle gelesen, dass es Zweifen daran gibt, dass 55nm deutlich billiger wären.
        Du bemängelst meine Quellen gibts aber selbst keine an...
        Außerdem kann beim GT200b von Anfangsphase keine Rede sein. 55nm waren schon lange auf dem Markt und absolut ausgereift.
      • Von Ch3ck3rM0n Freizeitschrauber(in)
        Hmm.. eigentlich juckt es mich ja schon unter den Fingern so ne 5870er in den Händen zu halten, aber dafür macht mir meine X2er einfach noch zuviel Power.. Vllt die nächste Generation dann.. Ich spar jez erst mal auf meine Informatikstudium, hab ich vorerst mehr davon ^^
      • Von Bucklew Gesperrt
        Zitat von jojo0077
        Naja der Stromverbrauch hat sich deutlich verändert. 186 gegen 236 Watt sind es glaube bei GTX285 vs. 280 und das bei höheren Taktraten für die 285.
        Das sind TDP-Angaben, die nichts mit der wirklichkeit zu tun haben. In der Realität waren es dann 226W (GTX280) vs. ~210W (GTX285). Und auch die Idle-Werte waren nun wirklich nicht schlecht auch bei 65nm - vorallem im Vergleich zu Konkurrenz. Nachzulesen u.A. bei Wikipedia, HT4U oder auch PCGH.

        Zitat von jojo0077
        Die Yieldrates waren alles andere als rosig als der GT200 rauskahm. Der Stromverbrauch zu hoch (sieht man auch an den niedrigen Taktraten), der Chip viel zu groß und teuer.
        Das wird immer gern behauptet, Zahlen gibt es dazu nicht und Beweise noch viel weniger. Stromverbrauch s.o. und man darf nie vergessen, dass sich TSMC natürlich 55nm gegenüber 65nm teuer bezahlt hat lassen - vorallem in der Anfangsphase. Ich kenn die Preise pro Chip leider nicht, wenn du sie kennst nur raus damit.

        Zitat von jojo0077
        Quellen etc. werd ich morgen raussuchen. Heute hab ich keine Zeit mehr. Musst dich halt solang gedulden
        Aber bitte etwas anderes und vorallem seriöseres als Inquierer und/oder semiaccurate (und darauf beziehende) mit dem alten Nvidia-Freund Charlie. Schon allein über die Aussage mit der Dualkarte kann man ja heute nur lachen Der Typ hat sowenig Ahnung, das es schon weh tut.
      • Von Two-Face PCGH-Community-Veteran(in)
        Das lag aber nicht am Fertigungsprozess sondern daran, dass der GT200 einfach ein riesen-Chip ist.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
695636
Grafikkarten
DirectX-11-Desktop-PCs von Dell
Medienberichte zufolge arbeiten Dell und AMD bei der Radeon HD 5870 eng zusammen. So eng, dass womöglich nur ein Bruchteil der Erstmenge in den Endkundenmarkt kommt.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/DirectX-11-Desktop-PCs-von-Dell-695636/
22.09.2009
http://www.pcgameshardware.de/screenshots/medium/2009/09/54865033_jpg_scaled_1000.jpg
dell,amd
news