Online-Abo
  • Login
  • Registrieren
Games World
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Zitat von ALL_FOR_ONE
        "während AMD sogar zu spät dran war." Diese Meinung hast du aber Exklusiv.


        So, habe ich?
        Wie würdest du es denn beschreiben, wenn eine Grafikkarte, die für Ende November erwartet wurde, erst Ende Januar in nenneswertern Stückzahlen verfügbar ist und ihr kleinerer Bruder, der zeitgleich erscheinen sollte, nicht einmal das schafft?
        Für mich ist das "zu spät".



        Zitat von Skysnake
        Sodele, jetzt hab ich dann auch mal Zeit auf deinen Beitrag zu antworten.


        Und ich für die Antwort

        Zitat
        Klar sind erst mal die Leute von anderen GF Derivaten abgezogen worden, insbesondere Tegra soll aber auch ziemlich darunter gelitten haben, das man bei Fermi aushelfen musste,


        Sagt wer?

        Zitat
        und wenn die schon aushelfen mussten, dann sicherlich auch die von Kepler, wobei die wohl eher später erst mehr Leute bekommen haben werden.


        Naja: Iirc sollte die nächste Tegra-Generation ebenfalls auf aktuelle Shaderkerne setzen und solange bei TSMC keine Kapazitäten frei sind, kann sie eh nicht vorrankommen. So gesehen ist der Abstand nicht wesentlich größer.

        Zitat
        Und was hat es Ihnen gebracht? Richtig, Sie sind SEHR böse auf die Nase geflogen und viele Leute nehmen Ihnen das richtig übel


        Nvidia ist mit Kepler sehr übel auf die Nase geflogen und viele Leute nehmen ihnen das übel?
        Mein Stand der Dinge war, dass Nvidia Mondpreise verlangen kann und die Leute trotzdem so tief in den Arsch kriechen, dass sie zur Nase wieder rauskommen.

        Zitat
        Und der "Beruf" spielt keine Rolle. Die Infos sind gut. Besser als von Charlie oder Donanimhaber in letzter Zeit. Von Obr will ich mal gar nicht anfangen. Der erzählt in letzter Zeit ja NUR NOCH
        Grütze und muss seinen Blog am laufenden Band editieren, damit man nicht sieht wieviel Bullshit er verbreitet.



        Da ich Charlie und Donanim bestenfalls auf Springer-Niveau einstufe, ist das dann aber ein "besser als nichts" - und noch lange nicht "gut" (genug, um sie ohne Bestätigung aus mehreren weiteren, unabhängigen Quellen, für bahre Münze zu nehmen. Erst recht bei derart internen Dingen, die man eben nicht von Nvidia-Partnern erfahren kann, im Gegensatz zu z.B. technischen Daten)

        Zitat
        Nach dem was man so hört eher ein "weil" denn ein "nicht weil". Du musst ja auch sehen, das man noch immer nichts von einer GTX660 usw. sieht. Die GTX670 kam auch erst einige Zeit später, und Custom-Designs sind am Anfang praktisch gar nicht zu sehen gewesen, und dann so lala.


        Das sagt aber leider alles nichts darüber aus, was bei Nvidia vor Veröffentlichung des Chips war oder nicht war, sondern nur, wann diese war. (was man aber auch so weiß - arg knapp vor der Markteinführung)

        Zitat
        Vor allem, welchen Sinn hätte das gemacht? GK104 ist ein guter Chip, aber keine Wunderwaffe. So etwas musste man nicht verstecken. Auf keinen Fall.


        Sicherlich nicht. Es passt aber zu Nvidia, bei denen ist das Geschrei i.d.R. antiproportional zur Qualität der Hardware. Man Vergleiche Fermi, GTX295 und Cine FX mit G80, dem Dauerbrenner G92 oder der Geforce 4 Ti. Selbst der TNT1 wurde schon massiv gepusht, im Vorfeld des GF256 massiv geschwiegen. Ich weiß nicht, wieso Nvidia das macht, aber es ist so regelmäßig, dass ich allein den Mangel an Informationen als zuverlässigere Quelle zur Qualität von GK104 betrachtet habe, als alles Gewäsch von OBR&Konsorten.

        Zitat
        Klar war das schon früher bekannt, aber genau damit stand nVidia ja unter druckt. Man überlässt der Konkurrenz nicht gern für längere Zeit den Platz überlässt. Zudem kann man sich ja nie sicher sein, das alles glatt geht, siehe GF100, auch wenn es mit GK104 natürlich deutlich einfach gewesen sein wird. Man hat aber halt dennoch sehr viel umgestellt, was viele Fehlerquellen bedeutet.

        Man stand also schon unter Druck schnellst möglich die Sachen fertig zu bekommen. AMD war sich iherer Sache ja sehr sicher, wurde nur von TSMC ausgebremst, was letzten Endes nVidia natürlich ganz gelegen kam. Daher finde ich nicht, das man nicht sagen kann, das nVidia deswegen unter Druck stand. Vor allem, weil Sie ja absolut zu gemacht haben. Das lässt die Partner in der Luft hängen und verunsichert diese, was dann doch wieder bei nVidia zu Druck führt, weil die Leute ungeduldig werden und irgendwann anfangen zu zweifeln.


        Ich fasse zusammen:
        Nvidia stand unter Druck, weil sie mit großzügigen Reserven geplant hatten (:hmm und deswegen besonders schnell fertig werden wollten (:huh, um Reserven für den Fall zu haben, dass etwas schief läuft (:what und sie zeitgleich die Partner nicht informiert haben, was sie unter Druck setzte, noch schneller -?äh?- kein Informationen zu liefern?
        Sorry.
        Entweder verstehe ich jeden einzelnen Satz von dir Falsch, oder/und wir werden hier auf keinen gemeinsamen Zweig kommen.

        Zitat
        Da gehts wohl eher weniger um verraten, als um Samples verteilen.

        Wie gesagt, Sie hatten wohl, wenn ich mich richtig erinnere, gegen September schon erste Chips (eventuell wars auch erst Oktober) zurück, die eben liefen, und an die Boardpartner eben auch weitergetragen worden sein sollen. Damit kann man sich dann schon sehr sicher sein, dass das Design funktioniert.


        Jetzt drehst du deiner eigenen Argumentation einen Strick:
        Wenn selbst AMDs Boardpartner schon im September wussten, was das GCN Topmodell konnte, dann wäre auch eine Absage für GK100, die im Sommer erfolgte, eine Reaktion auf GCN gewesen, denn Nvidia erfährt garantiert nicht erst nach XfX, was Sache ist

        Zitat
        Der Chip muss wirtschaftlich im Rahmen seiner Projektion produzierbar sein. Vorher machts einfach keinen Sinn meiner Meinung nach davon zu sprechen, das ne Firma einen Chip produzieren könnte. Ansonsten kannste das auch auf alle Entwicklungen unter Laborbedingungen ausweiten.


        Ein High-End Chip für den Destkopmarkt wird nie aus Gründen der Wirtschaftlichkeit produziert. Würde mich nicht wundern, wenn die mehrheitlich nicht einmal ihr eigenes Design einfahren (bzw. heute nur dank gpGPU-Ablegern). Der Haupteffekt ist Marketing für die neue Generation. Dabei ist bekanntermaßen sogar egal, ob das Ding gar nichts mit dem Rest der Generation gemeinsam hat (HD6900), ob es nur mit hohen Spannungen und teilaktiviert überhaupt nenneswerte Yields gibt (GTX480) oder ob es handgeklöppelt und abgezählt rauskommt (X850XT Press Edition, 7800GTX 512). Bekanntermaßen hat ein Firma sogar bis in den finanziellen Ruin an so einem Projekt gearbeitet, anstatt sich auf die Mittelklasse zu beschränken - denn ein guter Mittelklasse-/Einsteigerchip allein reicht einfach nicht. Zwar wird später der große Umsatz in diesen Bereichen gemacht und eigentlich wäre es logisch, dass es nur darum ginge, aber de facto kannst du auf den dann "Deltachrome" schreiben und dich in den Sarg legen, wenn du keinen großen Bruder hast, der wenigstens ein bißchen mehr Eindruck schindet.

        Und deswegen lautet die Fragen eben:
        Wann musste Nvidia entscheiden, dass es aus der "Big Kepler"-Entwicklungslinie nichts in Maskenform gebracht wird, bevor er soweit optimiert wurde, dass er de facto ein Refresh des ersten funktionierenden Designs hätte sein können?
        Und wann wusste Nvidia, dass sie keinen GK100 brauchen, sondern mit GK107 gegen Tahiti bestehen können?
      • Von Skysnake Lötkolbengott/-göttin
        Sodele, jetzt hab ich dann auch mal Zeit auf deinen Beitrag zu antworten.

        Zitat von ruyven_macaran
        GF100? Seitdem der seine Trudeleien hinter sich gebracht hat, hat Nvidia 9 GPUs veröffentlicht und mindestens zwei weitere zur Einsatzreife entwickelt. Sicherlich mussten ein paar Kapazitäten umgeschichtet werden (wie viele sei mal dahingestellt. Wenn man Fehler im Silizium hat, die man mangels fehlerfrei produzierte Chips nicht testen kann, kann man entweder mit viel Theorie was zu basteln versuchen - oder man kann im Gegenteil die Arbeit ruhen lassen und die Kapazitäten auf andere Projekte verlagern, bis TSMC mal wieder eine brauchbare Grundlage liefert), aber ich denke nicht, dass man das zielsicher auf GK100 festnageln kann. Genauer:
        Ich halte einen Abzug von Kepler-Personal sogar für am unwahrscheinlichsten, denn die hatten mit Abstand die wenigste Ahnung vom Thema. Andere Fermi-Teams wären naheliegender und der doch sehr späte GF104-Launch passt sehr gut zu dieser Erklärung.
        Klar sind erst mal die Leute von anderen GF Derivaten abgezogen worden, insbesondere Tegra soll aber auch ziemlich darunter gelitten haben, das man bei Fermi aushelfen musste, und wenn die schon aushelfen mussten, dann sicherlich auch die von Kepler, wobei die wohl eher später erst mehr Leute bekommen haben werden.

        Zitat

        Das Nvidia davor scheut, neue Archtitekturen und neue Fertigungen zeitgleich einzuführen, ist bekannt. Aber egal welche Lesart man nimmt: 28 nm Fermis gab es nicht, durch das enorme Alter der 40 nm Fertigung war Nvidia gezwungen, endlich was durchgängig neues zu machen. Gut möglich, dass man gezielt nicht den den aufwändigsten Chip für den Architektur-Launch gewählt hat - aber das heißt nicht, dass man ihn im Umkehrschluss komplett gestrichen hat.
        Und was hat es Ihnen gebracht? Richtig, Sie sind SEHR böse auf die Nase geflogen und viele Leute nehmen Ihnen das richtig übel, einfach weil man nach dem Fermi Debakel echte Zweifel an dem hat, was nVidia vom Stapel lässt bzgl Verfügbarkeit usw. Huang hat ja auch gesagt, das man eine neue Generation binnen 3 Monaten komplett einführen will, und das geht auf einem neuen Prozess deutlich einfacher ohne das Monster zu bringen. Denn du sprichst etwas wichtiges an. Man muss die Sachen trotz Tests mit Simulationen usw. doch auch mal in Silizium haben, um zu sehen, obs wirklich geht, oder eben nicht. Da hilft es dann schon ungemein, wenn man einen etwas reiferen Prozess hat, und dann Prozessprobleme ausschließen kann.

        Zitat

        Ich weiß nicht, was Nvidia weiß, aber ich weiß, dass AMD noch nie Rücksicht auf die Nodes genommen hat, ich weiß, dass man GCN schon sehr lange mit gpGPU beworben hat (was ohne High-End-Chip keinen Sinn macht, man baut keinen HD7770 Cluster) und ich weiß, dass es Gerüchte zu einer echten "R"-GPU gab.
        AMD ist nochmals etwas größer geworden, aber alles noch in einem humanen Rahmen. Kein Vergleich zu einem GF1x0 oder GK110 von der Größe her. Ich hab den Gerüchten bzgl. so einem Monster auch nicht wirklich glauben geschenkt. Mit Rev 2 in 28nm eventuell, einfach weil man gut in der Zeit war mit der Entwicklung, und sich bei der Führungsetage von AMD einiges geändert hat, was sich so langsam auch in Produkte durchschlägt. Ich würde allerdings keinen Pfifferling darauf verwetten, dass die auch einen 500mm² Chip bringen mit Rev2.

        Zitat

        *google*
        Ich vermute mal, du meinst keine ägyptische Gottheit, sondern eine Person aus dem 3DCenterforum, die als Beruf "Hotelfach" angibt und früher mal mehr mit Nvidia zu tun hatte?
        Nein ich mein keine ägyptische Gottheit

        Und der "Beruf" spielt keine Rolle. Die Infos sind gut. Besser als von Charlie oder Donanimhaber in letzter Zeit. Von Obr will ich mal gar nicht anfangen. Der erzählt in letzter Zeit ja NUR NOCH
        Grütze und muss seinen Blog am laufenden Band editieren, damit man nicht sieht wieviel Bullshit er verbreitet.

        Zitat

        "weil" oder "nicht weil", das ist hier die Frage
        Nach dem was man so hört eher ein "weil" denn ein "nicht weil". Du musst ja auch sehen, das man noch immer nichts von einer GTX660 usw. sieht. Die GTX670 kam auch erst einige Zeit später, und Custom-Designs sind am Anfang praktisch gar nicht zu sehen gewesen, und dann so lala. Inzwischen gehts aber eigentlich. Das spricht in Summe eigentlich dagegen, das man die Partner schlichtweg im Dunkeln gelassen hat. Vor allem, welchen Sinn hätte das gemacht? GK104 ist ein guter Chip, aber keine Wunderwaffe. So etwas musste man nicht verstecken. Auf keinen Fall.

        Zitat

        Die ersten Gerüchte zum Kepler-Launchtermin, basierend auf Kapazitätsbestellungen bei TSMC, gab es iirc schon 2010. Und sie wiesen auf das erste Quartal 2012 als frühesten Termin hin, eher Frühjahr denn Januar. AMD dagegen wurde spätestens Anfang 2011 auf 12Q4 datiert - mit der Hoffnung auf Herbst statt (Paperlaunch) in der Vorweihnachtszeit. Kann natürlich wieder, wie alle Gerüchte, falsch gewesen sein, aber es gibt keinen Hinweis darauf, dass Nvidia "plötzlich" ohne GPU und mit bereits gestarteten AMD-Karten da stand. Im Gegenteil: Nvidia hat zumindest einen Teil der geplanten Produkte im angedachten Launch-Fenster platziert (ob eher an dessen Ende und ob alle geplanten lässt sich, dank der guten Informationskontrolle bei Nvidia, nicht sagen - aber gut möglich), während AMD sogar zu spät dran war. Das zwischen beiden Terminen ein Zeitraum liegt, in dem sich SI gegen Fermi austoben konnte, war schon sehr, sehr früh bekannt und dürfte somit nicht zu Druck bei Nvidia geführt haben.
        Klar war das schon früher bekannt, aber genau damit stand nVidia ja unter druckt. Man überlässt der Konkurrenz nicht gern für längere Zeit den Platz überlässt. Zudem kann man sich ja nie sicher sein, das alles glatt geht, siehe GF100, auch wenn es mit GK104 natürlich deutlich einfach gewesen sein wird. Man hat aber halt dennoch sehr viel umgestellt, was viele Fehlerquellen bedeutet.

        Man stand also schon unter Druck schnellst möglich die Sachen fertig zu bekommen. AMD war sich iherer Sache ja sehr sicher, wurde nur von TSMC ausgebremst, was letzten Endes nVidia natürlich ganz gelegen kam. Daher finde ich nicht, das man nicht sagen kann, das nVidia deswegen unter Druck stand. Vor allem, weil Sie ja absolut zu gemacht haben. Das lässt die Partner in der Luft hängen und verunsichert diese, was dann doch wieder bei nVidia zu Druck führt, weil die Leute ungeduldig werden und irgendwann anfangen zu zweifeln.

        Zitat

        Sagt die "offene" (so offen, wie ein Schiff aus Streckmetall...) Informationspolitik AMDs etwas über den relativen Entwicklungsfortschritt aus? Ich denke nicht. Schön, dass die ihren Partnern (und allen anderen) Verraten, wie weit der Chip ist. Aber Nvidia macht das halt mindestens seit dem G80 nicht mehr und dementsprechend schlecht lässt sich so etwas vergleichen. Fest stehen dürfte jedenfalls: Auch Tahiti war nicht fertig, bevor TSMC einwandfrei funktionierende Chips zur Probe lieferte.
        Da gehts wohl eher weniger um verraten, als um Samples verteilen.

        Zitat

        Man kann einen Chip nicht ohne Fertigung fertigstellen, das sollte spätestens bei Fermi jedem aufgegangen sein. Wenn man verdammt viel Glück hat und einfach keine Fehler macht, dann ist die Fertigung halt einfach egal - siehe Northern Islands. Aber wenn der Chip in einem Zustand ist, der Überarbeitungen erfordert (und das ist er quasi immer, Nvidia hat noch nie A0 ausgeliefert und bei Fermi waren bekanntermaßen sogar erst die eigentlich-B-Siliziums das, was man wollte), dann steht man eben unweigerlich vor dem Problem, dass solide Tests erst möglich sind, wenn das Fertigungsverfahren keine größeren Fehler mehr produziert.
        Eben das war ja mutmaßlicher Weise einer der Gründe für den verhältnismäßig großen Versatz in den geplanten Launch-Terminen: Nvidia wollte Fermi 2.0 vermeiden und legte den Entwicklungsabschluss in einen Zeitraum, zu dem TSMC lange fertig sein wollte. Es stimmt, dass der Versatz dann nachträglich kleiner ausfiel, weil TSMC eben doch wieder mehr Probleme hatte und AMD durch Veröffentlichungs- und Vertriebshömoopathie mit 2-3 Monaten Verspätung im Markt ankam, aber Druck für Nvidia ergibt sich hier eben nicht aus der eigenen Entwicklung (mit Luft geplant), sondern im Gegenteil wiederum durch TSMC (denen man wohl nie genug Luft lassen kann - siehe vollständiger Produktionsstop kurz vor dem Launch-Fenster...)
        Wie gesagt, Sie hatten wohl, wenn ich mich richtig erinnere, gegen September schon erste Chips (eventuell wars auch erst Oktober) zurück, die eben liefen, und an die Boardpartner eben auch weitergetragen worden sein sollen. Damit kann man sich dann schon sehr sicher sein, dass das Design funktioniert. Wobei man davon ausgehen kann/muss, das AMD selbst wohl noch früher Sachen hatte. Die hängen ja auch nicht immer alles an die große Glocke.

        Zitat

        Da sich die Unterschiede zwischen G?10? und G?11? auf Optimierungen beschränken, glaube ich nicht, dass es bis Mitte 2011 überhaupt einen großen Unterschied zwischen GK100 und GK110 gab - eben weil TSMC überhaupt nicht die Möglichkeit bot, einen "as is" GK1x0 als GK100 in die Testproduktion zu schicken. Je nach dem, wie viele Informationen Nvidia intern über die Probleme bei TSMC hatte, ist es möglich, dass sie in dem Moment schon die Konzentration auf GK104 beschlossen haben (kleiner = bessere Testmöglichkeiten bei gleich mieser Fertigung = geringere Verzögerung durch diese). Aber ich glaube nicht, dass es vor Ende des 3. Quartals überhaupt hätte entschieden werden müssen, ob GK1x0 unoptimiert im 2Q12 in Produktion geht, oder ob man diesen Schritt auslässt.
        Bei so nem großen Chip würde ich eher von nem halben Jahr fürs finish ausgehen. Daher würde ich auch nicht Mitte 2011, sondern Anfang 2011 sagen. So schnell gehen die Sachen einfach nicht.

        Bzgl. der Testfertigung haste natürlich recht, aber das war schon immer klar. Kleinere Chips kannste immer früher bringen als größere. Das hat nichts mit irgendwelchen speziellen Problemen bei TSMC zu tun. Von daher wars unter Berücksichtigung der Aussagen von Huang durchaus nachvollziehbar, das man zuerst den kleinen Chip bringt, einfach um schneller am Markt sein zu können.

        Zu dem "unoptimiert" aber noch was.
        "unoptimiert" kannste die Dinger nicht in ne Serienproduktion schicken. Man quetscht halt nur nicht die letzten paar % raus. Das Design an sich hätte aber gut ein halbes Jahr vor dem geplanten Launch fertig sein sollen, damit man noch genug Zeit hat, um die Sachen dann auch fürs ASIC fertig zu machen, Verifikation zu betreiben und und und. Da ist aber noch kein respin eingeplant, was die sicherlich machen. Deswegen denke ich Mitte 2011 waren viel zu spät für eine Entscheidung, ob es GK100 geben wird oder nicht.

        Zitat

        Nicht seit heute, aber auch nicht seit 2010, als zum ersten Mal die Worte "GK100" in den Mund genommen wurden - oder eben nicht.
        Das TSMC die Verträge nicht einhalten kann, dürfte man frühestens seit 2H12 wissen. Daraus ergibt sich dann chronologisch der Rest, wobei die Flexibilität von GPU-Designs (von einander abgeleitete Chips einer Generation, sehr nah verwandtes Refresh) eben noch nicht bedeutet, dass die Priorisierung eines Chips das sofortige Ende eines anderen bedeutet. Ich persönlich halte es für gut möglich, dass weiterhin mit Volldampf zumindest an den GK100-Baustellen gearbeitet wurde, von denen auch GK110 und GK allgemein profitiert, bis im ~Oktober/November klar wurde, wie wenig von GCN zu befürchten war. Denn die meisten Design-Wins der OEMs bedient Nvidia so oder so via GF11x. Und das war entweder beiden Parteien egal (unwahrscheinlich), oder es stand schon lange fest, bevor der Rest der Welt jemals die Worte "GF 670 TI" in einer News las.
        Meiner Meinung nach viel zu kurzfristig. Das wären alles überstürzte Hauruckentscheidungen, wobei davor alles SEHR mit heiser Nadel gestrickt gewesen wäre. So was unterstelle ich nVidia nicht, und will ich mir auch gar nicht als möglich vorstellen. So was ist keine Geschäftsgrundlage.

        Bei GK100<->GK110 kannst du auch nicht vom Ende eines Chips sprechen. Man lässt sich halt mehr Zeit, wei man mehr Zeit brauch. Fertig. Wie das Ding dann am Ende heist, ist doch Jacke wie Hose. Wenn überhaupt, sagt es nur etwas darüber aus, ob man den eigenen Zeitplan in etwa eingehalten hat, oder aber nicht. Namen lassen sich aber SEHR einfach austauschen. Siehe Larrabee, äh ich meine Knights-Korner, äh ich meine natürlich Ferry-Knights, ach tschuldigung MIC natürlich. Äh... Mike...

        Ich hoffe du weißt was ich meine.

        Zitat

        "Können" steht nicht zur Debatte - das hätte die Praxis zeigen müssen und wie der GTX480-Kastrat gezeigt hat: Notfalls ist "können" und "machen" noch nicht einmal das gleiche. Die eigentliche Frage ist aber: "Wollen?"
        [/quote]Der Punkt, den du hier ansprichst ist absolut richtig. Nur wird dieses Mittel wohl selbst in Q42012 gewählt werden, wenn man den Aussagen auf der GTC glauben schenken darf, und da liegt doch einige Zeit dazwischen. Zudem kann man ja auch nicht beliebig den Chip kastrieren, sonst bringt er irgendwann einfach keinen Vorteil mehr.

        Man sollte aber wohl von "wirtschaftlich" produzieren sprechen, und nicht von allgemein. GF100 war ja wohl angeblich auch durchaus produzierbar, unter gewissen Vorrausstezungen und mords schlechten Yealds, aber das spielt keine Rolle, ob ich irgendwie mit unendlich viel Kapitaleinsatz doch mal nen funktionstüchtigen Chip raus bekomme, der irgendwie funktioniert, dann aber ne grottige Performance hat.

        Der Chip muss wirtschaftlich im Rahmen seiner Projektion produzierbar sein. Vorher machts einfach keinen Sinn meiner Meinung nach davon zu sprechen, das ne Firma einen Chip produzieren könnte. Ansonsten kannste das auch auf alle Entwicklungen unter Laborbedingungen ausweiten.
      • Von ALL_FOR_ONE Freizeitschrauber(in)
        "während AMD sogar zu spät dran war." Diese Meinung hast du aber Exklusiv.
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Zitat von Skysnake
        Du/Wir sollten dabei nicht vergessen, wie viele Ressourcen GF100 bei nVidia gefressen hat. Die mussten da sehr viele Leute rein stecken, um möglichst schnell die Sache zu fixen. Danach gings dann gleich weiter, weil GF100 halt nur eine Notlösung war. Da waren also auch noch übergroße Ressourcen gebunden, die an anderen Stellen gefehlt haben, und man bekommt nicht einfach so mal gute neue Leute, die das Team vergrößern, und solche Sachen abfedern.


        GF100? Seitdem der seine Trudeleien hinter sich gebracht hat, hat Nvidia 9 GPUs veröffentlicht und mindestens zwei weitere zur Einsatzreife entwickelt. Sicherlich mussten ein paar Kapazitäten umgeschichtet werden (wie viele sei mal dahingestellt. Wenn man Fehler im Silizium hat, die man mangels fehlerfrei produzierte Chips nicht testen kann, kann man entweder mit viel Theorie was zu basteln versuchen - oder man kann im Gegenteil die Arbeit ruhen lassen und die Kapazitäten auf andere Projekte verlagern, bis TSMC mal wieder eine brauchbare Grundlage liefert), aber ich denke nicht, dass man das zielsicher auf GK100 festnageln kann. Genauer:
        Ich halte einen Abzug von Kepler-Personal sogar für am unwahrscheinlichsten, denn die hatten mit Abstand die wenigste Ahnung vom Thema. Andere Fermi-Teams wären naheliegender und der doch sehr späte GF104-Launch passt sehr gut zu dieser Erklärung.

        Zitat
        Dann muss man noch bedenken, das Kepler in der Architektur doch so einige Veränderungen bereit hält, und auch für die Teslas so manches gemacht wurde. Da erscheint es absolut logisch, das man den großen Chip nicht wieder in einer problematischen neuen Fertigung bringen will,


        Das Nvidia davor scheut, neue Archtitekturen und neue Fertigungen zeitgleich einzuführen, ist bekannt. Aber egal welche Lesart man nimmt: 28 nm Fermis gab es nicht, durch das enorme Alter der 40 nm Fertigung war Nvidia gezwungen, endlich was durchgängig neues zu machen. Gut möglich, dass man gezielt nicht den den aufwändigsten Chip für den Architektur-Launch gewählt hat - aber das heißt nicht, dass man ihn im Umkehrschluss komplett gestrichen hat.

        Zitat
        Zudem weiß man ja, das AMD eigentlich keinen High-End chip bringt, und schon gleich 10 mal nicht bei einer neuen Fertigung.


        Ich weiß nicht, was Nvidia weiß, aber ich weiß, dass AMD noch nie Rücksicht auf die Nodes genommen hat, ich weiß, dass man GCN schon sehr lange mit gpGPU beworben hat (was ohne High-End-Chip keinen Sinn macht, man baut keinen HD7770 Cluster) und ich weiß, dass es Gerüchte zu einer echten "R"-GPU gab.

        Zitat
        Von Ailuros gibt es auch immer wieder die Aussage, dass es GK100 nie gab, was ich auch aufgrund der obigen Ausführungen schon für sehr wahrscheinlich halte.


        *google*
        Ich vermute mal, du meinst keine ägyptische Gottheit, sondern eine Person aus dem 3DCenterforum, die als Beruf "Hotelfach" angibt und früher mal mehr mit Nvidia zu tun hatte?

        Zitat
        Die Boardpartner waren SEHR spät eingeweiht, weil Kepler alias GK104 eben auch erst SEHR spät fertig geworden ist.


        "weil" oder "nicht weil", das ist hier die Frage

        Zitat
        Halten wir also mal fest, nVidia stand da sehr unter Zeitdruck, weil AMD seine Karten schon gelaunched hatte, und man selbst noch nicht mal mit dem Chip fertig war.


        Die ersten Gerüchte zum Kepler-Launchtermin, basierend auf Kapazitätsbestellungen bei TSMC, gab es iirc schon 2010. Und sie wiesen auf das erste Quartal 2012 als frühesten Termin hin, eher Frühjahr denn Januar. AMD dagegen wurde spätestens Anfang 2011 auf 12Q4 datiert - mit der Hoffnung auf Herbst statt (Paperlaunch) in der Vorweihnachtszeit. Kann natürlich wieder, wie alle Gerüchte, falsch gewesen sein, aber es gibt keinen Hinweis darauf, dass Nvidia "plötzlich" ohne GPU und mit bereits gestarteten AMD-Karten da stand. Im Gegenteil: Nvidia hat zumindest einen Teil der geplanten Produkte im angedachten Launch-Fenster platziert (ob eher an dessen Ende und ob alle geplanten lässt sich, dank der guten Informationskontrolle bei Nvidia, nicht sagen - aber gut möglich), während AMD sogar zu spät dran war. Das zwischen beiden Terminen ein Zeitraum liegt, in dem sich SI gegen Fermi austoben konnte, war schon sehr, sehr früh bekannt und dürfte somit nicht zu Druck bei Nvidia geführt haben.


        Zitat
        Jetzt wirds aber erst richtig hässlich...

        AMD hat zwar im Januar/Dezember die 7k Serie gelaunched, denkt jetzt aber mal bitte an das FDS, die ganzen Ankündigungen zu Tapeouts usw. usw usw. Wenn man mit Leuten redet, dann erfährt man auch, dass man (die Boardpartner), schon sehr früh etwas von der HD7k wussten usw. Da war Planungssicherheit gegeben, weil das Ding praktisch fertig war, man aber noch auf TSMC warten musste.


        Sagt die "offene" (so offen, wie ein Schiff aus Streckmetall...) Informationspolitik AMDs etwas über den relativen Entwicklungsfortschritt aus? Ich denke nicht. Schön, dass die ihren Partnern (und allen anderen) Verraten, wie weit der Chip ist. Aber Nvidia macht das halt mindestens seit dem G80 nicht mehr und dementsprechend schlecht lässt sich so etwas vergleichen. Fest stehen dürfte jedenfalls: Auch Tahiti war nicht fertig, bevor TSMC einwandfrei funktionierende Chips zur Probe lieferte.

        Zitat
        Das sind halt grundlegend unterschiedliche Vorraussetzungen. AMD, welche auf TSMC warten muss, und nVidia, welche ihren Chip fertig bekommen müssen. nVidia kann dieses mal froh sein, das TSMC etwas gebraucht hat, ansonsten wäre AMD noch früher gekommen, das Ding stand in der Warteposition, und dann hätte es noch dümmer für nVidia ausgesehen als jetzt.


        Man kann einen Chip nicht ohne Fertigung fertigstellen, das sollte spätestens bei Fermi jedem aufgegangen sein. Wenn man verdammt viel Glück hat und einfach keine Fehler macht, dann ist die Fertigung halt einfach egal - siehe Northern Islands. Aber wenn der Chip in einem Zustand ist, der Überarbeitungen erfordert (und das ist er quasi immer, Nvidia hat noch nie A0 ausgeliefert und bei Fermi waren bekanntermaßen sogar erst die eigentlich-B-Siliziums das, was man wollte), dann steht man eben unweigerlich vor dem Problem, dass solide Tests erst möglich sind, wenn das Fertigungsverfahren keine größeren Fehler mehr produziert.
        Eben das war ja mutmaßlicher Weise einer der Gründe für den verhältnismäßig großen Versatz in den geplanten Launch-Terminen: Nvidia wollte Fermi 2.0 vermeiden und legte den Entwicklungsabschluss in einen Zeitraum, zu dem TSMC lange fertig sein wollte. Es stimmt, dass der Versatz dann nachträglich kleiner ausfiel, weil TSMC eben doch wieder mehr Probleme hatte und AMD durch Veröffentlichungs- und Vertriebshömoopathie mit 2-3 Monaten Verspätung im Markt ankam, aber Druck für Nvidia ergibt sich hier eben nicht aus der eigenen Entwicklung (mit Luft geplant), sondern im Gegenteil wiederum durch TSMC (denen man wohl nie genug Luft lassen kann - siehe vollständiger Produktionsstop kurz vor dem Launch-Fenster...)

        Zitat
        Das wusste auch nVidia. Wenn jemals ein GK100 geplant gewesen sein sollte, wovon ich nicht ausgehe, nach dem GF100 Debakel, dann ist das Ding wohl spätestens Mitte 2011 gestrichen worden, aber wirklich absolut spätestens. Für einen GK100 waren einfach nicht die Ressourcen da, von den Problemen mit der Fertigung ganz zu schweigen.


        Da sich die Unterschiede zwischen G?10? und G?11? auf Optimierungen beschränken, glaube ich nicht, dass es bis Mitte 2011 überhaupt einen großen Unterschied zwischen GK100 und GK110 gab - eben weil TSMC überhaupt nicht die Möglichkeit bot, einen "as is" GK1x0 als GK100 in die Testproduktion zu schicken. Je nach dem, wie viele Informationen Nvidia intern über die Probleme bei TSMC hatte, ist es möglich, dass sie in dem Moment schon die Konzentration auf GK104 beschlossen haben (kleiner = bessere Testmöglichkeiten bei gleich mieser Fertigung = geringere Verzögerung durch diese). Aber ich glaube nicht, dass es vor Ende des 3. Quartals überhaupt hätte entschieden werden müssen, ob GK1x0 unoptimiert im 2Q12 in Produktion geht, oder ob man diesen Schritt auslässt.


        Zitat
        Was dabei aber noch dazu kommt ist, das hier die Leute gekonnt die Situation bei TSMC ausblenden....
        TSMC hat zu geringe Kapazitäten, was dazu führt, das nVidia extrem viel Rebranding macht, und von vielen Seiten in letzter Zeit Dresche bezieht, weil man befürchtet, das nVidia nicht die Liferversprechungen an die OEMs einhalten kann. Ihr müsst ja auch mal bedenken, das nVidia extrem viele Designwins für IB Laptops bekommen hat (welche Volumen dahinter stecken ist wieder etwas ganz anderes)! Die OEMs musst du beliefern, sonst gibt Konventionalstrafen. Du hast aber gleichzeitig beschränkte Kapazitäten, was du auch nicht erst seit heute weißt....


        Nicht seit heute, aber auch nicht seit 2010, als zum ersten Mal die Worte "GK100" in den Mund genommen wurden - oder eben nicht.
        Das TSMC die Verträge nicht einhalten kann, dürfte man frühestens seit 2H12 wissen. Daraus ergibt sich dann chronologisch der Rest, wobei die Flexibilität von GPU-Designs (von einander abgeleitete Chips einer Generation, sehr nah verwandtes Refresh) eben noch nicht bedeutet, dass die Priorisierung eines Chips das sofortige Ende eines anderen bedeutet. Ich persönlich halte es für gut möglich, dass weiterhin mit Volldampf zumindest an den GK100-Baustellen gearbeitet wurde, von denen auch GK110 und GK allgemein profitiert, bis im ~Oktober/November klar wurde, wie wenig von GCN zu befürchten war. Denn die meisten Design-Wins der OEMs bedient Nvidia so oder so via GF11x. Und das war entweder beiden Parteien egal (unwahrscheinlich), oder es stand schon lange fest, bevor der Rest der Welt jemals die Worte "GF 670 TI" in einer News las.


        Zitat
        Wer glaubt, das nVidia ein GK1x0 hätte bringen können, wenn AMD stärker gewesen wäre, der hat den Knall echt nicht gehört...

        Das ist abolut unrealistisch. nVidia war einfach nicht dazu in der Lage, das muss man so akzeptieren. Alles andere ist doch nur eine Selbsttäuschung.


        "Können" steht nicht zur Debatte - das hätte die Praxis zeigen müssen und wie der GTX480-Kastrat gezeigt hat: Notfalls ist "können" und "machen" noch nicht einmal das gleiche. Die eigentliche Frage ist aber: "Wollen?"
      • Von Threshold Flüssigstickstoff-Guru (m/w)
        Zitat von Cook2211

        Mir geht es einzig um die technischen Daten, und als was NV den Performance Chip verkauft.
        Und mich stört es massiv, das NV technisch gesehen den Nachfolger des GF104/114 als GTX680 für viel, viel Geld verkauft.
        Wenn dich oder andere das nicht stört, dann ist das ja ok.


        Weil Nvidia das Geld nun mal verlangen kann.
        Schau dir die GTX 690 an. Die schnellste Grafikkarte der Welt also kann Nvidia dafür verlangen was sie wollen. Und das machen sie auch.
        Würde AMD jetzt die Preise für die High End Modelle auf 200€ senken müsste Nvidia nachziehen aber AMD senkt nichts. Und Nvidia macht das sowieso nicht.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
883969
Grafikkarten
GPU Technology Conference GTC 2012
Die GTC-Eröffnungsrede hatte es in sich: GK 110, Big Kepler, wurde soeben von Nvidia-Präsident Huang angekündigt und ein Ausblick unter dem englischen Motto "What's Next in Computing" gegeben. Neben dem kommenden Nvidia-Flaggschiff GK110, auch bekannt als Big Kepler, wurden auch neue Tesla-K10-/-20-Karten sowie GPU-Raytracing in Verbindung mit Physx gezeigt.
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/GK110-Big-Kepler-mit-bis-zu-2880-ALUs-auf-GTC-2012-vorgestellt-883969/
16.05.2012
http://www.pcgameshardware.de/screenshots/medium/2012/05/Tesla_GK110_K20_3Qtr_NCovr.jpg
kepler,grafikchip,nvidia
news