Online-Abo
  • Login
  • Registrieren
Games World
      • Von Knappknacks Komplett-PC-Aufrüster(in)
        Aufrüstbare Paystation ?? Eig. Geile sache. Wär aber wahrscheinlich so wie bei Apple das man spezielle überteuerte Grakas braucht.
      • Von Locuza Lötkolbengott/-göttin
        Zitat von Superwip
        Das stimmt zwar... auf der Konsole ist es aber auch nicht einfacher.

        Mit GPGPU zu arbeiten ist nicht einfach und die Konsolen machen es als solche auch nicht einfacher. Ich denke jedenfalls nicht das LibGCM irgendwie einfacher zu handhaben ist als OpenCL oder gar CUDA.

        Und das wird auch dafür sorgen das "viele Jahre vergehen" werden bis die GPGPU Fähigkeiten der PS4 von gängigen Engines wirklich effektiv und intensiv genutzt werden.
        Ob das jetzt einfacher oder schwerer ist, spielt ja nicht so eine große Rolle.
        Sony als Hersteller steht hinter dem ganzen Zeug und mit jeder PS4 die verkauft wird, wird schon der einheitliche Verbreitungsgrad gesteigert, dass kann man beim PC leider nicht sagen.
        Ich denke allerdings auch, dass es noch einiges an Zeit kosten wird bis die ganze Toolchain bei den Devs schon auf den gemeinsamen Adressraum und die ACEs angepasst ist, um vollen Nutzen daraus zu ziehen.
        Die ersten Games werden das ganze wohl noch relativ halbherzig ausnutzen und eher klassisch programmiert sein.

        Zitat

        Eher ein großes Chaos. Und das erklärt auch die Unstimmigkeiten. Wenn man sich ansieht unter welchen Bedingungen Komodo, Sepang und Terramar gestrichen wurden auch nichts neues. Es würde mich nicht wundern wenn bei AMD die eine Abteilung nicht weiß was die nächste bereits gestrichen hat...
        Deswegen das "klein" in Anführungszeichnen.
        AMD hat scheinbar seine Strategie geändert und versucht für jede Marktlücke eine IP herauszubringen, so hat man zwar schneller bei einem Marktsegment ein Produkt stehen, allerdings ist es ein reines Chaos was das technologische Level betrifft.
        Könnte ja auch so aussehen:

        Very-Low-End: GCN2
        Low-End: VLIW5
        Mid-Range: GCN1
        Performance: GCN2
        High-End: GCN1

        Also schön, dass sie "flexibler" agieren wollen, aber wenn das am Ende so aussieht, dann nein Danke.

        Zitat
        Na ja, die letzte Generation war schon recht pünktlich. TSMC will, wie gesagt, bereits dieses Halbjahr mit der Produktion von 20nm Sampels für Kunden beginnen, wenn sie gröbere Probleme hätten dann würden sie das nicht ankündigen.
        GCN1 war glaube ich schon einige Monate früher fertig. Naja, ich betone ja es auch noch einmal, ich denke 20nm für die Massenfertigung wird noch länger auf sich warten müssen als Q2 2014.
        Oder es wird noch kritischer wie bei dieser Gen aussehen, die ersten GPUs die bei 20nm von Band gehen, werden 200mm² groß sein. (Falls man echt früh Chips heraus bringen will, man hört nichts gutes bezüglich 20 nm).
        Nvidia wollte schon keinen Bomber der >500mm² groß ist bei 28nm anfangs produzieren mit den schlechten Yields.
        Das wird zeitlich und kostentechnisch ja immer schlimmer.
        Deswegen denke ich nicht, dass wenn AMD jetzt GCN2 im High-End-Bereich erst Q4 2013 einführt, dass das Produktfenster zu klein ausfallen würde.

        Zitat
        In der Konsole werden AVX und FMA ankommen. Und komplexerer Code, Integercode erst recht, einfache, hochparallele Gleitkommaaufgaben schiebt man als aller erstes auf die GPU ab.
        AVX hoffentlich stark, da haben PCs dann auch den großen Vorteil, aber FMA hat Jaguar nicht.
        Da wird die Konsole keinen Schub bringen.
        Man wird ja den Code auch so schreiben, dass er perfekt zu Jaguar passt, da ist Bulldozer z.B. nicht so perfekt dran.

        Zitat

        Na ja... gut... Bay Trail wird jedenfalls energieeffizienter und darauf liegt auch das Hauptaugenmerk (er hat auch kein AVX und einige Varianten sollen sogar immernoch ohne 64Bit Support erscheinen); Jaguar wird wohl schneller als Bay Trail aber die maximale TDP der Jaguar APUs ist auch gut doppelt so hoch wie die der Bay Trail SoCs...
        Mal sehen, was bei der Perf/Watt übrig bleibt.
        AMD bietet ja "vollwertige" Produkte an, was Befehle und die GPU angeht mit OpenCL und DX11.1.
        Das sind ja auch alles Sachen, die bei Low-Power schon ihren Tribut zollen.

        Zitat
        Lässt sich einfach beantworten: Sandy Bridge...
        Leider ist das ja auch nicht so leicht, Intel verwendet andere Optimierungsbibliotheken bei den Transistoren und setzt auf Bulk-Gate-Last.
        Besonders der gate-first Prozess bei GloFo soll anfangs echt schrecklich gelaufen sein.
        Jetzt sollte das endlich normal geworden sein, aber keine Ahnung wie klein oder groß die Abweichungen zu Intels 32nm Prozess noch sein könnten.
      • Von Superwip Lötkolbengott/-göttin
        Zitat
        Durchaus und da muss sich auch AMD spurten, immerhin hat man bei GCN2 gleich 8 ACEs, wäre ziemlich dumm als Gegenfeature zu HyperQ diese nicht zugänglich für Devs zu machen.
        Leider müssen dennoch immer viele Jahre vergehen, bis Devs am PC eine Möglichkeit bekommen relativ unkompliziert auf beiden GPU-Herstellern die Compute-Features zu realisieren.

        Das stimmt zwar... auf der Konsole ist es aber auch nicht einfacher.

        Mit GPGPU zu arbeiten ist nicht einfach und die Konsolen machen es als solche auch nicht einfacher. Ich denke jedenfalls nicht das LibGCM irgendwie einfacher zu handhaben ist als OpenCL oder gar CUDA.

        Und das wird auch dafür sorgen das "viele Jahre vergehen" werden bis die GPGPU Fähigkeiten der PS4 von gängigen Engines wirklich effektiv und intensiv genutzt werden.

        Zitat
        Meiner Logik nach lädt kein Grafikhersteller PDFs für die Optimierung von GCN2 hoch, wenn er die Serie intern schon gecancelt hat.
        ...
        Das ist bisher ein etwas "kleines" Chaos bei AMD.

        Eher ein großes Chaos. Und das erklärt auch die Unstimmigkeiten. Wenn man sich ansieht unter welchen Bedingungen Komodo, Sepang und Terramar gestrichen wurden auch nichts neues. Es würde mich nicht wundern wenn bei AMD die eine Abteilung nicht weiß was die nächste bereits gestrichen hat...

        Zitat
        20nm stehen auch nicht vor der Tür, ich denke das wird erfahrungsgemäß länger dauern, als TSMC immer ankündigt.

        Na ja, die letzte Generation war schon recht pünktlich. TSMC will, wie gesagt, bereits dieses Halbjahr mit der Produktion von 20nm Sampels für Kunden beginnen, wenn sie gröbere Probleme hätten dann würden sie das nicht ankündigen.

        Ich kann nur abermals betonen: wenn dann müsste GCN2 spätestens ~jetzt herauskommen. Im zweiten Halbjahr 2013 zahlt es sich schon kaummehr aus.

        Zitat
        Es geht auch schlicht um die Realität und um die IPC. In der Realität ist AVX und erst Recht FMA noch nirgendwo angekommen.

        In der Konsole werden AVX und FMA ankommen. Und komplexerer Code, Integercode erst recht, einfache, hochparallele Gleitkommaaufgaben schiebt man als aller erstes auf die GPU ab.

        Zitat
        Bay Trail wird ja dann auch endlich eine gute Architektur sein, garniert mit 22nm Tri-Gate.

        Na ja... gut... Bay Trail wird jedenfalls energieeffizienter und darauf liegt auch das Hauptaugenmerk (er hat auch kein AVX und einige Varianten sollen sogar immernoch ohne 64Bit Support erscheinen); Jaguar wird wohl schneller als Bay Trail aber die maximale TDP der Jaguar APUs ist auch gut doppelt so hoch wie die der Bay Trail SoCs...

        Zitat
        Die Frage ist, wie würde es um Intel stehen, wenn man ihre Fertigung wegnimmt?

        Lässt sich einfach beantworten: Sandy Bridge...
      • Von Locuza Lötkolbengott/-göttin
        Zitat von Superwip
        Open CL kann und wird bei Bedarf weiterentwickelt werden.
        Durchaus und da muss sich auch AMD spurten, immerhin hat man bei GCN2 gleich 8 ACEs, wäre ziemlich dumm als Gegenfeature zu HyperQ diese nicht zugänglich für Devs zu machen.
        Leider müssen dennoch immer viele Jahre vergehen, bis Devs am PC eine Möglichkeit bekommen relativ unkompliziert auf beiden GPU-Herstellern die Compute-Features zu realisieren.

        Zitat
        Ach ja?

        Wie gesagt: wenn die GCN 2 Karten nicht noch in diesem Halbjahr kommen zahlt es sich fast nichtmehr aus da dann schon die 20nm Generation vor der Türe steht.

        AMD hat in den letzten Jahren so einiges aus diversen Gründen in "letzter Minute" gestrichen etwa Krishna/Wichita, Vishera oder die 32nm Northern Islands.

        Auch die jüngste Veröffentlichung neuer GCN1 Chips unterstreicht das- wenn es GCN2 gäbe warum nicht nutzen?
        Meiner Logik nach lädt kein Grafikhersteller PDFs für die Optimierung von GCN2 hoch, wenn er die Serie intern schon gecancelt hat.
        Und das war wie gesagt noch nicht einmal vor einem Monat und das Silizium ist eh fertig.
        Es wird auch spekuliert, ob nicht schon eine 7790 GCN2 ist und über das Jahr hinweg AMD ständig mal ein bis zwei GPUs aktualisiert.
        Das ist bisher ein etwas "kleines" Chaos bei AMD.
        20nm stehen auch nicht vor der Tür, ich denke das wird erfahrungsgemäß länger dauern, als TSMC immer ankündigt.

        Bei NI@ 32nm und Krishna gab es auch Foundry-Gründe gegen die Veröffentlichung und ja bei NI, geht sowieso nichts, wenn es nicht angeboten wird. Das trifft dieses mal aber nicht zu.

        Zitat

        Ja.

        In einem Integerbenchmark oder einem Benchmark mit komplexerem Code oder einem Benchmark, der AVX und FMA ausnutzt würde die Welt ganz anders aussehen.
        Es geht auch schlicht um die Realität und um die IPC. In der Realität ist AVX und erst Recht FMA noch nirgendwo angekommen.
        Jaja, ich weiß da gibt es schon paar Programme.
        Eine Jaguar-Compute Unit hat 4x128-Bit FPUs, 2 Piledriver Module beim gleichem Clock auch.
        Das einzige wo Piledriver Akzente setzen kann ist, wenn seine ganzen Instruction-windows deutlich größer sind und die ganzen restlichen Einträge, Buffer etc., habe jetzt dazu aber keine genaue Tabelle.
        Jedenfalls beim Jaguar ist der L1D$ doppelt so groß pro Kern, wie bei Bulldozer/Piledriver und das Cache-Design auch ein write-back.
        Jeder Core hat seine eigenen Ressourcen und man kann schon spöttisch sagen, Jaguar funktioniert so wie er soll und hängt sich nicht teils selber auf wie die Bulldozer-Architektur.
        Ich denke deshalb nicht das Jaguar weit abgeschlagen von einer Bulldozer/Piledriver IPC sein wird, man könnte sich einfach Bobcats IPC mal anschauen und dann bisschen draufrechnen, dann würde man ungefähr hinkommen, habe jetzt aber auf die schnelle auch keine gefunden.

        Edit: Gut, dafür hat bei Bulldozer auch jeder Integer-Core doppelt soviel L2-Cache und der L2-Cache läuft mit Core-Takt und nicht mit half-clock.
        Und die ganzen Einträge müssten auch deutlich größer sein, ist immerhin eine ganz andere Design-Ausrichtung.
        Dennoch enttäuschend was Bulldozer und Piledriver gerade so auf die Waage bringen, wobei Piledriver sich bei Worst-Case Szenarien sich deutlich verbessert hat.
        Jedenfalls in paar Monaten werden wir erfahren, wo man die Jaguar-IPC im Vergleich zu Bulldozer/Piledriver hinstellen kann.

        Zitat
        "gut".

        Das kann man so stehen lassen; nicht "unglaublich gut".

        Beim Vergleich mit dem ATOM muss man aber auch bedenken das der Jaguar wenn er auf den Markt kommt wohl gegen die "Bay Trail" Atoms mit generalüberholter Mikroarchitektur (inklusive Out of Order) in 22nm antreten muss.
        Bay Trail sieht nach Ende 2013/Anfang 2014 aus.
        Kabini soll Ende Mai dieses Jahres kommen, wann Temash kommt für Tablets keine Ahnung.
        Der Zug ist für die Konkurrenz wohl eh abgefahren, wenn Intel wieder mit seiner Fertigung ankommt.
        Bay Trail wird ja dann auch endlich eine gute Architektur sein, garniert mit 22nm Tri-Gate.

        Intel ist wie gesagt, immer eine Klasse für sich, dass ganze auch bei ihren Prozessoren.
        Die Frage ist, wie würde es um Intel stehen, wenn man ihre Fertigung wegnimmt?

        Deswegen steht auch GloFo so unter Druck ihren 14xm herauszubringen, ansonsten zieht Intel wieder lachend vorbei.
      • Von Superwip Lötkolbengott/-göttin
        Zitat
        1. Per Open CL ist kein Zugriff bisher möglich, bei Nvidias GPUs geht das per CUDA, aber bigK ist der einzige mit dem Feature und bis sich das beim Mainstream durchsetzt oder bis es überhaupt einen gemeinsamen Standard gibt, kannst du das alles vergessen.

        Open CL kann und wird bei Bedarf weiterentwickelt werden.

        Zitat
        3. GCN2 ist nicht gecancelled.

        Ach ja?

        Wie gesagt: wenn die GCN 2 Karten nicht noch in diesem Halbjahr kommen (und danach sieht es wirklich nicht aus!) zahlt es sich fast nichtmehr aus da dann schon die 20nm Generation vor der Türe steht.

        AMD hat in den letzten Jahren so einiges aus diversen Gründen in "letzter Minute" gestrichen etwa Krishna/Wichita, Vishera oder die 32nm Northern Islands.

        Auch die jüngste Veröffentlichung neuer GCN1 Chips unterstreicht das- wenn es GCN2 gäbe warum nicht nutzen?

        Zitat
        Ja, es ist nur Cinebench

        Ja.

        In einem Integerbenchmark oder einem Benchmark mit komplexerem Code oder einem Benchmark, der AVX und FMA ausnutzt würde die Welt ganz anders aussehen.

        Zitat
        6. Vergleicht man Low-Power Designs bei 28nm, dann ist das gut was AMD da abliefert, gegenüber ARM und Intels Atom.

        "gut".

        Das kann man so stehen lassen; nicht "unglaublich gut".

        Beim Vergleich mit dem ATOM muss man aber auch bedenken das der Jaguar wenn er auf den Markt kommt wohl gegen die "Bay Trail" Atoms mit generalüberholter Mikroarchitektur (inklusive Out of Order) in 22nm antreten muss.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1060355
PlayStation 4
Playstation 4 mit PC-Komponenten: Laut Sony das, was sich Entwickler wünschten
Die neue Playstation 4 von Sony setzt diesmal stark auf Komponenten aus dem PC-Bereich. Das senkt nicht nur die Kosten, sondern war laut Michael Denny, dem Vizepräsidenten von Sony Worldwide Studios, auch das, was sich die Spiele-Entwickler von Sony gewünscht hatten.
http://www.pcgameshardware.de/PlayStation-4-Konsolen-220102/News/Playstation-4-Gaming-Konsole-im-Herzen-Entwicklerwunsch-1060355/
13.03.2013
http://www.pcgameshardware.de/screenshots/medium/2013/02/ps4_system.jpg
ps4 playstation 4,sony
news