Online-Abo
  • Login
  • Registrieren
Games World
      • Von Superwip Lötkolbengott/-göttin
        Zitat
        Klar hat man nen BGA-Sockel, aber der dient halt nur noch zur Stromversorgung, und nicht mehr zur Datenübermittlung. Die erfolgt rein optisch vom DIE runter. Also praktisch so was wie IBM gezeigt hat mit ihrer Glasfaseranbindung direkt an der Kante des DIEs auf dem Solilzium selbst.

        Wie auch immer du vom Chip runterkommst ist eine Sache aber das hat nichts mit dem Sockel zu tun, denn der Sockel ist ja eine Verbindung der CPU Trägerplatine mit dem Mainboard...

        Ob mit LGA, PGA, BGA oder einer Abwandlung mit optischen Kontakten, der CPU sitzt nicht direkt auf dem Board und das hat auch seine Gründe.

        Zitat
        RICHITG geil/interessant, wird die Sache vorallem, wenn du das mit FibreOnChip kombinierst. Da könntest du dann wirklich richtig gut skalierende Systeme bauen. Also vor allem auch dem Problem des hohen Energieaufwands beim hin und her schieben von Daten auf dem Chip entgegenwirken. Im Endeffekt halt das "ClusterOnChip" Design, das man schon bei MIC angegriffen hat, deutlich ausgebaut.

        Schön, hat aber auch nicht viel damit zu tun ob du den CPU auf einem Stecksockel oder BGA Sockel verbaust...

        Zitat
        Ein weiteres Problem ist halt, wie man Peripherie wie Netwerkkarten/GPUs usw. dort anschließt. Am Besten wäre natürlich genauso, dann hat man aber wirklich gar keine Möglichkeit mehr irgendwas aus zu tauschen. Bei Steckkarten kann ich mir aber durchaus vorstellen, das man 1-4 große Sockel baut, die dann eben auch die nötigen Toleranzen einhält, um optisch-optische Kopplungen zu erstellen. Je nachdem, kann man für Geräte, die nicht ganz so viel brauchen, auch elektrische Stecker bauen, die dann halt nur sehr sehr sehr kurze Strecken überbrücken müssen.

        Ebenfalls mit einfachen Linsensteckern, entweder in einen Sockel/Slot integriert (der dann aber in seiner Bauform deutlich von gegenwärtigen PCIe Slots abweichen würde) oder du behältst den elektrischen PCIe in seiner aktuellen Bauform und wenn du mehr Bandbreite brauchst steckst du an der Karte zusätzlich noch ein paar Lichtwellenleiterkabel an.

        Zitat
        Problem ist halt, wie du die Fasern da anbringen willst, und dann noch nen Kühler drauf pappst. Das ist nicht unbedingt ganz einfach.
        ...

        Ein Vorteil hat der Verzicht auf einen LGA/PGA Sockel ist halt, dass man, da die Verbindung eh Dauerhaft ist, auch gleich so was wie die "Direktwasserkühlung" von IBM umsetzen kann ohne Probleme. Ob da jetzt nen Kühler fest drauf sitzt, den ich nicht austauschen kann juckt dann auch keinen mehr. Die CPU kann ich ja eh nicht tauschen, und ne Direktwasserkühlung ist dsefinitiv Leistungsstark genug für alle Ansprüche. Das wäre sogar für "normale" OCler ein Schritt nach vorne, da das Ding zu kleinem Preis auf dem Niveau einer ausgewachsenen WaKü ist, oder sogar besser. Je nachdem wie viel Geld man in Pumpe und Radi investiert.

        Man könnte halt recht einfach die Kühlung komplett dicht machen, ohne Wartungsmöglichkeit, wo die Gefahr der Verschmutzung besteht, wass dann die Mikro-/Nanokanäle verstopfen würden. Kann man ja direkt im Reinraum verbauen.

        Zunächst möchte ich festhalten das die Direktwasserkühlung immernoch nicht unbedingt die beste (bei Raumtemperatur) denkbare Kühlung ist: meiner Meinung nach ist der Ansatz der direkt-Flüssigmetallkühlung bei der das Flüssigmetall gleichzeitig als Kühlmittel und elektrische Masse in einem 3D-Chip dient noch interressanter, ein Flüssigmetall hat auch eine höhere Wärmeleitfähigkeit und kann mit einer völlig wartungs- und verschleißfreien Magnethydrodynamischen Pumpe gepumpt werden.

        Beide Techniken haben aber eines gemeinsam (abgesehen davon das sie beide von IBM entwickelt wurden): sie müssen vollständig wartungsfrei gebaut werden, winzige Schmutzpartikel könnten die Mikrokanäle verstopfen und zu einem "Infakt" führen. Bei Flüssigmetall kommt eventuell noch hinzu das dieses giftig (Quecksilber) oder an der Luft hochentzündlich (Natrium-Kalium) ist.

        Allerdings wird man mit einer derartigen integrierten Kühlung nicht praktikabel auf die benötigte Radiatorfläche kommen oder zumindest den Nutzer bei der Wahl seiner Radiatorfläche stark einschränken; ich denke daher das hier eine zweistufige Kühllösung genutzt wird: Die integrierte On-Chip Flüssigmetall oder Wasserkühlung gibt die Wärme über einen trennbaren Plattenwärmetauscher (auch andere Bauformen sind denkbar) entweder an einen klassichen (Heatpipe-)Luftkühler oder an einen sekundären Wasserkreislauf weiter.
        Will man extreme OC kommt man mit der Wasserkühlung auf ~0°C (bei reinem Wasser), mit der Flüssigmetallkühlung auf -39°C (Hg), -10°C (NaK) oder -19,5°C (Galistan); bei tieferen Temperaturen kann man das Kühlmittel durchfrieren (bei Wasser könnte es zu Problemen mit der Ausdehnung kommen) muss dabei aber mit einer stark inhomogenen Temperaturverteilung im Chip leben.

        Wie auch immer: all diese Kühllösungen setzen nicht voraus das der CPU am Mainboard integriert ist, man könnte die Kühlung auch ohne weiteres praktisch als besserer Heatspreader auf dem CPU integrieren.

        Ich denke auch das wir solche Kühllösungen langfristig nur bei HPC und eventuell High-End Server/Workstation CPUs vom Sandy Bridge-E Kaliber aufwärts sehen werden; mobile CPUs und deren Desktop Ableger dürfen garnicht so viel verbrauchen das eine solche Kühlung nötig wäre.

        Und auch solange man mit klassischer Kühlung auskommen kann man sehe ich auch kein Problem in Zusammenhang mit der Verwendung von Lichtwellenleitern; allenfalls muss (wenn überhaupt) die Form von Heatspreader und eventuell auch die des Kühlers etwas angepasst werden was aber keine allzu große Tragödie wäre (GraKas haben ja schon jetzt zueinander weitgehend inkompatible Kühler).

        Zitat
        RAM per Interposer
        MRAM/Phasechange-Memory/FRAM includiert

        Davon bin ich nicht begeistert.

        Ich würde zwar ebenfalls RAM integrieren allerdings würde ich weiterhin die Möglichkeit diesen extern zu erweitern offenlassen, man könnte den Speicherbereich "einfach" in schnellen internen und "langsamen" externen RAM teilen.

        Der RAM Bedarf ist einfach von Nutzer zu Nutzer zu unterschiedlich- und für manche Anwendungen kann man praktisch nie genug haben. RAM Braucht auch prinzipiell viel Chipfläche, es wäre nicht wirtschaftlich einfach "genug für alle" einzubauen.

        Zitat
        Um jetzt ganz den Bogen zu bekommen. Wenn Quantencomputer sich in 20, 30 oder 50 Jahren dann marktreif entwickelt haben, und gescheit nutzbar sind, dann wird man um zentrale Strukturen eh nicht rum kommen, da die nächsten x Jahrzehnte/Jahrhundert man die nicht auf Desktop-Niveau runter bekommen wird.

        Alles eine Frage der Kühltechnik... ich sehe keinen prinzipiellen Grund warum man Quantencomputer nicht recht kompakt bauen können sollte- es stellt sich auch die grundsätzliche Frage ob überhaupt jeder einen Quantencomputer braucht...
      • Von Skysnake Lötkolbengott/-göttin
        Ich stell mir das komplett anders vor als du dir

        "optisch-elektrischer BGA-Sockel" ist da schon ne komplett falsche Wortwahl.

        Klar hat man nen BGA-Sockel, aber der dient halt nur noch zur Stromversorgung, und nicht mehr zur Datenübermittlung. Die erfolgt rein optisch vom DIE runter. Also praktisch so was wie IBM gezeigt hat mit ihrer Glasfaseranbindung direkt an der Kante des DIEs auf dem Solilzium selbst.

        RICHITG geil/interessant, wird die Sache vorallem, wenn du das mit FibreOnChip kombinierst. Da könntest du dann wirklich richtig gut skalierende Systeme bauen. Also vor allem auch dem Problem des hohen Energieaufwands beim hin und her schieben von Daten auf dem Chip entgegenwirken. Im Endeffekt halt das "ClusterOnChip" Design, das man schon bei MIC angegriffen hat, deutlich ausgebaut.

        Damit bist du dann eigentlich alle Probleme los, was die Datenübertragung anbelangt. Vor allem wird das Package wirklich RICHTIG einfach.

        Problem ist halt, wie du die Fasern da anbringen willst, und dann noch nen Kühler drauf pappst. Das ist nicht unbedingt ganz einfach.

        Ein weiteres Problem ist halt, wie man Peripherie wie Netwerkkarten/GPUs usw. dort anschließt. Am Besten wäre natürlich genauso, dann hat man aber wirklich gar keine Möglichkeit mehr irgendwas aus zu tauschen. Bei Steckkarten kann ich mir aber durchaus vorstellen, das man 1-4 große Sockel baut, die dann eben auch die nötigen Toleranzen einhält, um optisch-optische Kopplungen zu erstellen. Je nachdem, kann man für Geräte, die nicht ganz so viel brauchen, auch elektrische Stecker bauen, die dann halt nur sehr sehr sehr kurze Strecken überbrücken müssen.

        Ein Vorteil hat der Verzicht auf einen LGA/PGA Sockel ist halt, dass man, da die Verbindung eh Dauerhaft ist, auch gleich so was wie die "Direktwasserkühlung" von IBM umsetzen kann ohne Probleme. Ob da jetzt nen Kühler fest drauf sitzt, den ich nicht austauschen kann juckt dann auch keinen mehr. Die CPU kann ich ja eh nicht tauschen, und ne Direktwasserkühlung ist dsefinitiv Leistungsstark genug für alle Ansprüche. Das wäre sogar für "normale" OCler ein Schritt nach vorne, da das Ding zu kleinem Preis auf dem Niveau einer ausgewachsenen WaKü ist, oder sogar besser. Je nachdem wie viel Geld man in Pumpe und Radi investiert.

        Man könnte halt recht einfach die Kühlung komplett dicht machen, ohne Wartungsmöglichkeit, wo die Gefahr der Verschmutzung besteht, wass dann die Mikro-/Nanokanäle verstopfen würden. Kann man ja direkt im Reinraum verbauen.

        Wenn man ganz lustig ist, kann man ja auch gleich noch das Konzept aufgreifen, die Stromversorgung auch noch gleich über die Kühlflüssigkeit her zu stellen. Dann würde sogar der BGA Anteil des Sockels entfallen. Bleibt also nur noch die Anbindung für den I/O übrig.

        Oder wenn man es dann ganz auf die Spitze treibt, nimmt man wieder den BGA-Sockel her, und packt da den elektrischen I/O für Display und Eben USB oder so dazu, was nicht viel Bandbreite braucht, und packt komplett alles andere auf einen Multi-DIE SOC/COC, bei dem man dann praktisch nur noch einzelne COCs mittels Glasfaser miteinander verbindet. DAS ist im Prinzip das große Fernziel.

        300-1000W Leistungsaufnahme
        Multi-DIE mittels Interposer
        RAM per Interposer
        MRAM/Phasechange-Memory/FRAM includiert
        Accelerator direkt mit dabei
        und für Spezialsachen noch nen kleinen FPGA dabei, quasi für Spezialanwendungen, bei denen man früher auch nen extra FPU-Chip zu den Prozessoren als Co-Prozessor dazugesteckt hat.

        Das ist dann die "Consumer" Version.

        Die HPC/Server-Variante hat dann halt noch x Glasfaserinterfaces, für die direkte Anbindung weiterer COCs. Da kann man dann auch die Variabilität rein bringen, ob man jetzt nen "0815" COC nimmt, oder nen CoProzessor/Accelerator oder auch nen Speicher, quasi wie nen NAS/SAN.

        DAS ist dann nen richtig richtig geil skalierendes System.

        Je nachdem, wie schnell der PC mit großer Rechenleistung verschwindet und uns mehr oder weniger freiwillig die Cloud aufs Auge gedrückt wird, umso schneller wachsen auch die gigantischen Rechenzentren. Ist ja heute schon bei google und Facebook so, dass sich selbst gebaubte Server rentieren aus Kostensicht, weil man eben so unglaublich viele hat, und sich die Energieersparnis rechnet. Da kann man dann mit den Einschränkungen auch leben ohne Probleme.

        Unsere Gesellschaft könnte das durchaus auch weiter bringen, wenn man nur noch thin Clients hat, und eben an jeder Stelle den dicken Cluster im Rücken hat.

        Der Weg dahin ist aber noch lang, und auch aufgrund des Datenschutzes, und der Gewinngier von Firmen, bin ich mir auch nicht sicher, ob wir das wirklich realisiert bekommen. Potenzial ist aber in dem Bereich vorhanden.

        PS:
        Um jetzt ganz den Bogen zu bekommen. Wenn Quantencomputer sich in 20, 30 oder 50 Jahren dann marktreif entwickelt haben, und gescheit nutzbar sind, dann wird man um zentrale Strukturen eh nicht rum kommen, da die nächsten x Jahrzehnte/Jahrhundert man die nicht auf Desktop-Niveau runter bekommen wird.
      • Von Superwip Lötkolbengott/-göttin
        Zitat
        Wir postulieren aber nicht gleichbleibende Frequenzen, sondern umgekehrt proportional zur Entfernung steigende Frequenzen. Da ist es dann eben nicht mehr Jacke wie Hose. Wenn wir bei "kleinen" Frequenzen bleiben, dann hast du Recht, aber dann ist eben auch die Frage da, wie viel man an Gesamtbandbreite gewinnt, Aufgrund der geringen Anzahl an Fasern, die man angeschlossen bekommt, wenns billig sein soll.

        Die Sache ist ja, das, wenn man sich schon daran wagt, ein Konzept wählen sollte, das einem für >=10 Jahre Zeit verschafft, sich nochmals was neues zur Überlegen. Ansonsten bringt das nicht viel. Man braucht einfach Entwicklungspotenzial.

        Bei extrem hohen Pulsfrequenzen bekommst du aber auch andere Probleme, vor allem mit dem LASER selbst. Bedenke auch das du bei den kurzen Übertragungswegen nicht an 1,5µm IR gebunden bist und auch recht Weit in Richtung blau gehen kannst was weitere Vorteile im Bezug auf die Dispersion bietet.

        Ich denke bis >100GHz Pulsfrequenz (also >200GBit/s/Link in einer Richtung) sollten schon möglich sein, das ist sehr viel mehr als mit Kupfer mit vernünftigem Aufwand möglich wäre.

        Zitat
        Dann führ das mal näher aus, oder mach am Besten ne Skitze, wie du dir das vorstellst, ich kann dir da gedanklich gerade nicht folgen

        Irgendwann später vielleicht...

        Aber in dem Zusammenhang eine andere Frage: wie genau stellst du dir denn einen optisch-elektrischen BGA-Sockel vor? Oder willst du ernsthaft das CPU-DIE selbst fest im Mainboard integrieren?
      • Von Skysnake Lötkolbengott/-göttin
        Zitat von Superwip
        Hier hast du aber keine 100m und keine 150m sondern vielleicht 0,5m.

        -> die Dispersion ist in jedem Fall völlig vernachlässigbar
        -> Die Dämpfung ist auch nicht so tragisch

        Dank der kurzen Leitungslängen kannst du auch mit schlechten Monomodefasern und schlechten Steckern sehr hohe Bandbreiten erreichen.
        Wir postulieren aber nicht gleichbleibende Frequenzen, sondern umgekehrt proportional zur Entfernung steigende Frequenzen. Da ist es dann eben nicht mehr Jacke wie Hose. Wenn wir bei "kleinen" Frequenzen bleiben, dann hast du Recht, aber dann ist eben auch die Frage da, wie viel man an Gesamtbandbreite gewinnt, Aufgrund der geringen Anzahl an Fasern, die man angeschlossen bekommt, wenns billig sein soll.

        Die Sache ist ja, das, wenn man sich schon daran wagt, ein Konzept wählen sollte, das einem für >=10 Jahre Zeit verschafft, sich nochmals was neues zur Überlegen. Ansonsten bringt das nicht viel. Man braucht einfach Entwicklungspotenzial.

        Zitat

        Vermutlich nicht.

        Ob du irgendeinen Interposer auf dem CPU Träger hast ändert nichts daran das du deinen CPU als ganzes stecken kannst oder auch nicht.

        Die optische Kopplung der Optischen Wellenleiter auf CPU Träger und Board erfolgt dann jedenfalls über einen Sockel, der praktisch viele integrierte Linsenstecker enthält.



        Wenn man wirklich Steckanschlüsse auf der CPU realisiert und die Optische Kommunikation nicht über den Sockel macht -was meiner Meinung nach nur selten sinnvoll wäre- braucht man eben entsprechende Vorgaben für das Kühlerdesign. sollte kein großes Problem sein, zumindest bei der Verwendung von Tower- und Wasserkühlern.
        Dann führ das mal näher aus, oder mach am Besten ne Skitze, wie du dir das vorstellst, ich kann dir da gedanklich gerade nicht folgen
      • Von Superwip Lötkolbengott/-göttin
        Zitat
        Ich rede hier ja auch expliziet NICHT von Monomode-Fasern. Ich schätze ja auch großzügig FÜR deine Argumentation und gegen meine eigene ab. Ich nehm ja an, das man bei einer Bandbreitenverdoppelung eine Leitungslängenhalbierung hinnehmen muss. Das ist aber schon sehr optimistisch ran gegangen. Du musst ja bedenken, dass die Zeitintervalle immer kürzer werden, das Rauschen aber nicht in dem Maße besser wird. Klar hat man bei kürzeren Leitungslängen weniger mit der Dispersion zu kämpfen, aber dafür erhöht man ja auch die Frequenz...
        Interessant ist ja auch folgender Punkt. Mit ner OM3 Faser schafft man maximal 150m bei 8GBit/s. Bei 10 GBit/s sind 100m schon nicht trivial. Das scheint also nicht unbedingt wirklich gut zu skalieren oben raus. Ich hab also oben wirklich sehr sehr sehr großzügig abgeschäzt.

        Hier hast du aber keine 100m und keine 150m sondern vielleicht 0,5m.

        -> die Dispersion ist in jedem Fall völlig vernachlässigbar
        -> Die Dämpfung ist auch nicht so tragisch

        Dank der kurzen Leitungslängen kannst du auch mit schlechten Monomodefasern und schlechten Steckern sehr hohe Bandbreiten erreichen.

        Zitat
        Reden wir gerade über das Gleiche?

        Vermutlich nicht.

        Ob du irgendeinen Interposer auf dem CPU Träger hast ändert nichts daran das du deinen CPU als ganzes stecken kannst oder auch nicht.

        Die optische Kopplung der Optischen Wellenleiter auf CPU Träger und Board erfolgt dann jedenfalls über einen Sockel, der praktisch viele integrierte Linsenstecker enthält.

        Zitat
        Zudem bleibt halt immer noch das mechanische Problem bestehen. Wie willst du denn ne Steckverbindung direkt an der CPU realisieren UND noch nen Kühler drauf packen? Das ist halt mit eines der größten "Sorgenkinder" die ich persönlich habe, egal wie man die Verbindung herstellt. Für mich scheiden deswegen auch jedwede STeckverbindung von LWL direkt an der CPU aus. Vor allem halt auch, weil man gleich wieder riesige Stecker hat, und dann eben die Anzahl LWLs sehr sehr gering wird.

        Wenn man wirklich Steckanschlüsse auf der CPU realisiert und die Optische Kommunikation nicht über den Sockel macht -was meiner Meinung nach nur selten sinnvoll wäre- braucht man eben entsprechende Vorgaben für das Kühlerdesign. sollte kein großes Problem sein, zumindest bei der Verwendung von Tower- und Wasserkühlern.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1043701
CPU
Intel: Gesockelte CPUs noch bis 2016? Broadwell teilweise als BGA
Die Webseite Techreport berichtet unter Verweis auf eigene "vertrauenswürdige Quellen" aus dem Bereich der Mainboard-Hersteller, dass Intel noch bis mindestens 2016 gesockelte CPUs anbieten wolle. Fraglich bleibt, was danach geschieht. Ausgewählte Low-End-Broadwell-CPUs sollen nur noch verlötet in Kombination mit einem Mainboard zu haben sein.
http://www.pcgameshardware.de/CPU-Hardware-154106/News/Intel-Gesockelte-CPUs-2016-Broadwell-BGA-1043701/
12.01.2013
http://www.pcgameshardware.de/screenshots/medium/2012/01/Asus_ROG_Rampage_IV_Gene_10.jpeg
haswell,broadwell,intel,cpu
news