Online-Abo
  • Login
  • Registrieren
Games World
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Im Bereich Workstations/Server macht Quad-Channel Sinn und ist auch nicht so die Neuerung. Dual-CPU-Xeons waren schon zu So775-Zeiten damit unterwegs (damals natürlich nur 1x4, aber die Komplexität ist vergleichbar). In diesem Bereich würde ich sogar noch größere Systeme für möglich (wenn auch vorerst nicht nötig) halten, einfach weil die Produktionskosten im Vergleich zu Entwicklung und Endpreisen relativ klein sind. Unterhalb davon muss man aber einfach gucken, wieviel Plattformen man sinnvoll platzieren kann - und mit derzeit zwei ist man imho schon ganz gut dabei. Da für den Office-Bereich single-Channel gesetzt ist und sich dort auch Synergien mit ultraportable ergeben, bleibt genau eine Plattform, die auch Einsteiger-Multimedia-PCs abdecken muss. Und da ist Dual-Channel die angemessen Lösung.

        Bezüglich RAM-on-Substrat: Man müsste schon etwas größere MCMs nutzen, als heute. Aber z.B. Knights Landing wird sicherlich nicht hinter den aktuellen Xeon Phi mit bis zu 16 GB RAM zurückbleiben und den RAM auf dem Substrat integrieren. De facto haben wir damit schon einen vollintegrierten, x86 tauglichen Prozessor - auch wenn er vorerst auf einer Karte statt einem Mainboard platziert wird und auf hochparallele Aufgaben optimiert ist. Aber es wäre mit vertretbarem Aufwand möglich, die gleiche Technik mit einem Broadwell-DT (oder einem Haswell-E? Das Substrat hat selbst mit einem 512 Bit Interface kein Problem) zu kombinieren.
        Nur die vorerst 4 stelligen Preise müssten noch sinken. Aber wenn der Markt vermehrt fixe CPU-RAM-Kombinationen nachfragt, wäre das nur eine Frage der Stückzahlen.
      • Von CD LABS: Radon Project BIOS-Overclocker(in)
        Ok, erst mal nochmals vielen Dank für die Zeit, die du dir nimmst und vielen Dank für die Fortführung des Topics:

        Drei ganz allgemeine Kommentare und danach gute Nacht:
        1. Die Rückkehr zu den Single-Channel-Plattformen ist in meinen Augen tatsächlich ein logischer Schritt, weil wir mittlerweise nach Jahren der Stagnation ja schon wirklich nah an den perfekten Office-PCs sind:
        Kaum Leistungsaufnahme, keine wirklich störenden Bootzeiten mehr dank SSDs und insgesamt viel zu viel Rechenleistung für die eigentliche Aufgabe.
        Das wird und hat die PC-Hersteller ja auch hart getroffen, außer aus Effizienzverbesserungen oder geplanter Obzoleszens gibt es für keinen Office-only-User mehr einen Grund den PC zu wechseln.
        Von daher würde ich auch diesen Bereich komplett aus den Überlegungen zur RAM-Zukunft ausschließen, dort wird es eh nur auf geringere Fertigungskosten und weniger Leistungsaufnahme hinauslaufen!
        2. Glaubst du, dass die Substrat-Integration in naher Zukunft eine ausreichende Größe erreichen wird, um ohne externen Ram zu funktionieren?
        Geschwindigkeit ist da ja wirklich weniger das Problem... Ach, und eine andere Frage hätt ich auch noch: Wieso hätte Intel Quad-Channel-DDR3 einführen sollen, wenn sie in Mehrkanallösungen nicht zumindest für die nächsten Jahre eine Option sehen, um an hohe Bandbreiten zu gelangen?
        3. Zu deiner Einschätzung: Aus den von dir genannten Gründen (OEMs lieben verlötet einfach...) würde ich tatsächlich alle gesockelten Varianten eher hinten anstellen.
        Bei den sonstigen Einschätzungen muss ich aber sagen: Hut ab, klingt alles drei plausibel. Wobei ich trotzdem auf das breite Interface hoffe, irgendwie klingt das für mich nach mehr Nutzerkontrolle und weniger ausfallanfällig ist es auf jeden Fall---genau aus diesem Grund wird es aber dann wohl eher nicht die Realität werden...
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Pff - gaaaanz schwer abzuschätzen, da laufen zuviele Entwicklungen gegeneinander.
        Und allgemein etwas weit ab vom Thema

        Grundsätzlich kann man sagen:
        Schon der 8086 hatte schon anno78 seine 16 Bit.
        32 Bit Anbindung gabs erstmals 85 beim 80386.
        64 Bit Anbindung hatten wir von 93 (Pentium 1) bis, in dieser Klasse, 2004/2005 (So775 mit i865 als Einstiegschipsatz respektive die ersten So939 Semprons).
        128 Bit haben wir seitdem

        Es sind also verdammt lange und tendenziell immer länger werdende Abschnitte, bis zur nächsten Steigerung. Und in der Vergangenheit waren immer die High-End-/Workstation-Segmente der Antrieb, die jetzt ihre eigenen Plattformen nutzen. Weiter unten gibts, abgesehen vom iGPU-Betrieb, auch wirklich 0 Gründe, etwas zu ändern - im Gegenteil, die nachträglich ergänzten Low-End-Plattformen sowohl bei AMD wie auch bei Intel haben erneut Single-Channel eingeführt, weil es zum arbeiten ausreicht.

        Dem gegenüber steht halt der Trend zur immer höheren Integration und die Konsolen machen ja schon vor, dass 256 Bit eine Idee wäre.

        Was die aber auch vormachen und was massiv von unten in den Markt drängt: Verlötete CPUs. Gerade im mobilen, wo ja auch iGPU-Leistung am interessantesten ist, sind die mittlerweile sehr weit verbreitet. Und Apple (schon in der Vergangenheit mehrfach Pionier für feste Integration...) hat gerade die zweite Baureihe auf verlöteten RAM umgestellt. Mit solcher Technik verschwindet natürlich das Problem des komplexen Sockels und Substrates. Umgekehrt muss man aber auch sagen: Es werden theoretisch deutlich höhere Taktraten möglich.

        Und als dritte Komponente schließlich on-Substrat-Integration. Auch das ein sehr starker Trend, (Cache-)Speicher auf dem Substrat sehen wir bei der X360 und IBM-Systemen schon lange, bei Iris Pro auch genau in dem Segment und zur Lösung genau des Problems, dass wir hier besprechen. Die nächste Xeon Phi Generation wird den kompletten, großen VRAM on-substrat integrieren. Auch das würde das Problem lösen - ggf. aber zusammen mit der letztgenannten Möglichkeit, denn bislang waren die Substrate dann immer so groß, dass niemand mehr einen Sockel entwickelt hat.
        Parallel läuft seit Ewigkeiten die Forschung zur Integration von DRAM on-DIE...

        Welcher dieser Trends die Oberhand gewinnt - ich weiß es nicht. Wenn ich eine Wahrscheinlichkeits-Rangfolge für in 5 Jahren aufstellen sollte, wie die untere Mittelklasse mit iGPU aussieht:
        1 verlötete CPUs mit Cache on Substrat
        2 gesockelte CPUs mit Cache on Substrat
        3 verlötete CPUs und verlöteter RAM mit hohem Takt, aber gleicher Bandbreite (z.B. 128 Bit GDDR6?)
        4 gesockelte CPUs mit Cache on DIE
        5 verlötete CPUs mit breiterem Interface
        6 gesockelte CPUs mit breiterem Interface

        1. ist einfach nur ein Wachstum des Ist-Zustandes, also sehr naheliegend. 2. Treibt etwas mehr Aufwand, um die Flexibilität der OEMs und Endkunden zu erhalten - aber zumindest erstere tendieren aus Kosten- und Platzgründen eben sowieso in Gegenrichtung und letztere sind in dem Segment zu selten. 3. ließe sich aus eine abgespeckten PS4 CPU ableiten, wäre bei Intel aber ein recht großer Schritt. Allgemein verlagert sich der Aufwand hier von der CPU aufs Board - also das genaue Gegenteil der letzten Jahre, in denen die CPU-Hersteller immer mehr Komplexität (und damit Teile der Gewinnspanne an sich gerissen haben). Imho schon recht unwahrscheinlich. 4. Ist imho das langfristige Ziel, wird aber noch länger als 5 Jahre dauern. In 10 Jahren haben wir dann vielleicht Systeme mit Cache on-DIE, RAM on Substrat und Flash-Massenspeicher On-Board. (und nichts davon wechselbar)
        5. Halte ich, aus genannten Gründen, für zu aufwendig und Komplex im Endkundenmarkt. Einzig wenn Valve und AMD sich zusammentun, um aus der PS4 eine Steambox zu entwickeln, die dann auch als Board verfügbar ist, bestände eine Chance. Aber selbst wenn sie das tun, besteht wenig Anlass, es als ATX-kompatible PC-Komponente umzusetzen, anstatt eben einfach eine x86-Konsole zu bauen.
        Für 6. gilt das gleiche, wie für 5. - nur dass der Entwicklungsaufwand ungleich größer wäre und der Nutzen nahe null. Denn eine derartige Plattform wäre im low-End-Bereich unnötig teuer und im High-End-Bereich sinnlos, weil die Leute ihre dedizierte GPU haben wollen. (Wenn sie das nicht mehr wollen: siehe 1/2/3)
        Einziger Weg hierhin imho: GDDR5 Module erweisen sich als praktikabel + Intel dreht durch und bringt gCPUs für So2011-3, die die Hälfte der Kanäle als VRAM-Interface nutzen. Damit würde man parallel den Nutzern deutlich mehr mitdenken abverlangen, als man sich je ein Hersteller getraut hat (welcher RAM wohin? welchen RAM überhaupt wofür kaufen? Bislang hatte man nichtmal den Schneid, So754/939 oder 1156/1366 pin-kompatibel zu machen und einfach einen Kanal nicht zu nutzen) und natürlich müsste man auch die bisherigen Enthusiastboards auf einmal auf <150 € drücken. Jedes einzelne Ereignis ist schon "wenig wahrscheinlich".
      • Von CD LABS: Radon Project BIOS-Overclocker(in)
        Zitat von ruyven_macaran
        *schnipp*

        Nochmals vielen Dank für deine Einschätzungen:
        Glaubst du denn, dass es langfristig gesehen (also so ausgehend von fünf Jahren) im Desktop-APU-Markt mal mehr als 128Bit geben wird?
        Klar, erst einmal ist das große APU-Ziel den gesamten DDR3-Grafikkartenmarkt (Notebooks!!!) zu übernehmen (vor allen Dingen für AMD sehr verlockend, damit könnte man eine ), aber hälst du es für realistisch, dass auch GDDR-Karten in Bedrängnis kommen könnten?
        GDDR6 ist sicherlich kurz nach DDR4 marktreif und wird somit wieder die Lücke zwischen iGPU und dGPU vergrößern...

        Einzige Chance wäre da wohl eine High-End-APU, so was im Stile eines dreimodulers mit 32 CUs und mindestens 256Bit Interface, besser mehr...
        Aber ob AMD dafür genügend Kapazitäten hat...
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Zitat von CD LABS: Radon Project
        zu 2. Verflucht, ich vergesse immer wieder, dass das Prefetch ja schon eingerechnet ist...
        hehe
        Solange du nicht, wie selbst manche Webseiten, bei GDDR5 den Basistakt mit vier multiplizierst gehts ja noch

        Zitat
        zum Preispunkt: Der Sockel 1366 war aber auch ganz sicher wegen der geringen Nachfrage aufgrund der hohen Preise der Sockel 1366-CPUs so teuer...
        Sicherlich ist das ein Faktor. Aber auch die PCBs sind einfach teurer, iirc hatten sämtliche So1366 Boards zwei Layer mehr, als So1156 (weiß nicht mehr genau, ob es 8 zu 6 oder 6 zu 4 war - auf alle Fälle eine deutlich Aufwandssteigerung), um das Interface überhaupt unterzubringen. Deswegen hat es Intel beim So2011 dann auch in zwei Hälften gesplittet, um wenigstens eine bessere Verteilung zu erreichen. Aber das sorgt seinerseits wieder dafür, dass der Platz für Stromversorgung und deren Anbindung limitiert wird.

        Zitat
        Außerdem wäre der angestrebte Markt einer Tri-DDR4-Plattform ja auch eher das gehobene Einstiegssegment (400€ für die Kernhardware insgesamt) als das LowLevel-Entry-Segment.
        Für dieses Segment bringt aber niemand eine eigene Plattform, da sind die Stückzahlen schon viel zu klein. Und die OEMs werden auch keine Lust haben, komplett zusätzliche Produktserien aufzulegen, anstatt ihre Modelle allein über die eingesetzte CPU/GPU/RAM zu differenzieren. Entweder man schafft es, sein Konzept auf einer Plattform umzusetzen, die auch für die riesige Masse an Büro- und Low-End-PCs geeignet ist, oder man muss saftige Preisaufschläge für ein Nischenprodukt in Kauf nehmen. Letztere lösen dann aber den Preisvorteil gegenüber dedizierten GPUs (die dann auch gleich von Low-End bis Enthusisat alles abdecken können ohne noch weitere Plattformkosten zu verursachen) wieder auf.

        Zitat
        Und wenn man da statt einem FX 4300 (~100€, einem AM3+-Board(~70€, einer HD 7790 (~100€ und zwei DDR3-Ram-Riegeln (70€ einen A14-blablabla (120€, ein XY2-Board (120€ und drei DDR4-Riegel (160€ nimmt, hat man für 60 Euro Aufpreis immerhin ein deutlich effizienteres System!
        DDR3 vs DDR4 kannst du bei der Rechnung erstmal ausklammern. Ehe DDR4 bezahlbar ist, sind seine Bandbreiten auch Standard. Wenn du von heutigen Preisen ausgehen und einen Direktvergleich machen wolltest, müsstest du mindestens einen 100er auf den RAM-Preis aufschlagen und die zusätzlichen, geballten Entwicklungskosten würden -wenn AMD sowas stemmen könnte- auch die CPU nochmal um locker 50 € teurer machen.
        Wenn man sich alternativ auf den direkten Vergleich Dual vs. Triple-Channel beschränkt, bleiben +50% Speicherbandbreite. Die 20 € Aufpreis bei der CPU sind für komplexeren Controller und Substrat durchaus angemessen. 50 € Aufpreis beim Board erscheinen gerade bei kompakten µATX-Platinen, auf denen schon der Platz für die Slots knapp wird als realistisch, ein zusätzlicher Speicherriegel macht vermutlich sogar nur 70 vs. 100 €. ABER:
        In deiner Rechnung fehlt komplett die zusätzliche DIE-Fläche für die größer dimensionierte GPU. Deren Leistung wirst du definitiv nicht zum Nulltarif bekommen. Wenn man es überhaupt schafft, sie zu integrieren, wären sicherlich nochmal 50-100 € Aufschlag im CPU-Endkundenpreis zu erwarten (+ gesteigerte Gewinnspanne im dann höheren Segment). Und du hättest trotzdem nicht deine angestrebte HD7790 Leistung, denn du hast nur durch Triple-Channel noch nicht deren Speicherbandbreite (dafür bräuchte es in der Tat den deutlich teureren DDR4) und vor allem nicht deren Speicherbandbreite PLUS ein Dual-Channel-Interface allein für die CPU. Um das zu erreichen, müsstest du bei gleichem Technologiestand der Speichertechnik direkt auf Quad-Channel gehen (siehe PS4), was dann noch teurer wird.

        Zitat
        Vielleicht würde sich AMD ja dann auch mal dazu durchringen auch ihre Chipsätze in die CPUs zu integieren
        Eine Southbridgeintegration würde die Anbindungsprobleme noch vervielfachen. Diese haben schließlich soviele Schnittstellen, dass z.T. schon die Anbindung des DIEs an Platzproblemen leidet. (Z.B. gilt die geschrumpfte DIE-Größe beim neuen Fertigungsprozess der Intel-Chipsätze als Hauptgrund dafür, dass man den, im OEM und Workstation/Server-Segment weiterhin genutzten, PCI-Controller entfernt hat. Es fehlte nicht an Fläche, ihn unterzubringen, aber an Kantenlänge, um das anachronistische, breite Bus-Interface zu kontaktieren)

        Zitat
        4. Hmm, wenn man so die Daten ansieht, dann wirkt das recht plausibel. Aber irgendwie passt das so gar nicht zu der DDR3 vs. GDDR5-Diskussion bei den neuen Konsolen, siehe z.B. hier:
        Höhere Latenz des GDDR5 RAM spielt laut Mark Cerny keine Rolle - die Konsole - PS4-Magazin.de
        Klar, da sagt gerade ein Entwickler, dass die höhere Latenz keine Rolle spielen würde, aber er sagt erst einmal nichts dagegen, dass diese hohe Latenz existiert!

        Ich kenn jetzt die Taktraten der PS4 nicht. Wenn der GDDR5 niedrig getaktet wird und keine entsprechend optimierten Chips zum Einsatz kommen, könnte die absolute Latenz tatsächlich höher ausfallen. "niedrig" ist schließlich immer relativ zum Takt zu betrachten (gegen SDR stinken die alle sowas von ab ) und GDDR schafft es halt, akzeptable Latenzen in Taktregionen zu halten, in denen DDR schon lange vorher unbrauchbar hohe Werte haben würde.
        Möglich ist natürlich auch, dass die Betrachtung im Interview schlichtweg in Zyklen erfolgte.

        Zitat von hl. Geist
        Edit: sorry, wurde ja schon beantwortet. Die Latenzdiskussion kommt meiner Meinung nach von M$, um ihren schlechteren DDR3 gegenueber Sony besser dastehen zu lassen

        Ich glaube ehrlich gesagt nicht, dass M$ irgend einen Gedanken an die 0,x% der Konsolenkäufer verschwendet, die sich dafür interessieren, was eine Latenz ist und welche Auswirkungen sie hat. Aber unter den Technik-afinen Konsolen-Fans gibt es genauso Fanboys, wie bei Nvidia und AMD und für die ist natürlich ein ganz elementares Thema...
        Ginge es nur um Technik & Verständnis, könnte man die Konsolendiskussion imho sowieso in einem Absatz beenden: Latenzkritische Opperationen betreffen typischerweise minimale Datenmengen (wenn ich mehrere KB über mehrere 100 Zyklen lade, dann ist es auch egal, dass ich 5 Zyklen länger brauchte, um den Aufruf zu starten). Somit ist die RAM-Latenz der X1 schlichtweg egal, denn genau für sowas würde man den Cache nutzen.
        Aber welcher Fanboy beendet schon gerne eine Diskussion, solange die Gegenseite nicht winselnd am Boden liegt?
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1095525
CPU
AMD Kaveri: Leicht überarbeitete Chipsätze, mögliche Vorstellung am 11. November und angeblich nur DDR3-Speicher
AMD hat jüngst neue Details zu den Controller Hubs für den Sockel FM2+ enthüllt, bei denen im Detail ein paar Kleinigkeiten geändert wurden. Die dafür zugeschnittenen Kaveri-APUs soll AMD bereits am 11. November auf einem Event vorstellen oder zumindest anteasern. Derzeit machen zudem Gerüchte die Runde, dass AMD bei Kaveri wohl keinen GDDR5-Speicher unterstützen wird.
http://www.pcgameshardware.de/CPU-Hardware-154106/News/AMD-Kaver-Chipsaetze-Vorstellung-11-November-DDR3-1095525/
02.11.2013
http://www.pcgameshardware.de/screenshots/medium/2013/11/kaveri_amd_apu-pcgh.png
cpu,kabel deutschland,amd,kaveri
news