Online-Abo
  • Login
  • Registrieren
Games World
      • Von Skysnake Lötkolbengott/-göttin
        Und wieviel schafft DDR3 im ungünstigsten Fall? z.B. spaltenweiser Zugriff auf Matrizen?

        Mehr sag ich dazu aber jetzt auch nicht mehr. Ich sag eh schon lange zu viel... Wir werden einfach noch "bischen" warten müssen, und dann schauen was kommt.-
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Du hast was von "30xDRM" gesagt. Aktuelle DRAM-Technologie schafft Spitzenbandbreiten von >3 Gbit/s*Leitung. Das 30-fache wären mindestens 90 Gbit/s.
      • Von Skysnake Lötkolbengott/-göttin
        Hab ich was von 100Gbit/s gesagt?

        Nenn es eine Abschätzung für den Worstcase für DRAM. Es sind halt zwei unterschiedliche Technologien. Da kannste kein 1:1 Vergleich ziehen.

        Die große Spannende Frage ist eigentlich nur, was aus DDR4 RAM wird, und wie sich AMD und nVidia positionieren. Mir würde HMC bei AMD besser gefallen als bei Intel. Aber da muss man einfach schauen, was wird.

        HMC kann eventuell auch noch ne ganze Weile in den Schubladen liegen bleiben. Ich glaub da ist man sich selbst noch nicht so ganz sicher, was man machen wird. Eventuell kommts auch als erstes für Erweiterungskarten und DDR4 bleibt bei den CPUs für ne Weile bestehen, bis die R&D-Kosten wieder drin sind.

        Genaues weiß da aber wohl noch keiner, wie was genau laufen wird.
      • Von ruyven_macaran Trockeneisprofi (m/w)
        Noch fehlende Debugging-Tools werden kein langfristige Hinderniss bleiben (ganz abgesehen davon, dass die Hälfte deiner Kritik auf die Verwendung unterschiedlicher Speicherräume zurückgeht - und damit der Vergangenheit angehört).

        Bei "30 fach pro Wire" bin ich mal gespannt, wann näheres veröffentlicht wird. (Mein Tipp: Haswell-EP könnte früher da sein) Eine Datenrate von beinahe 100 Gbit/s über Kupfer und idealerweise gesockelt und bezahlbar wäre jedenfalls eine Ansage. Afaik schafft das selbst (nicht-WDM-)Glasfaser nur unter Laborbedingungen und -kosten.
      • Von Skysnake Lötkolbengott/-göttin
        Zitat von ruyven_macaran

        Dir fällt schon auf, dass quasi deine gesamte Liste sich auf die Probleme, die man beim Programmieren mit einem hochparalleln Co-Prozessor im Vergleich zu einer Single-/Low-Thread-Haupt-CPU hat, bezieht und kein einziger Punkt auf x86 vs. CUDA? Also nur auf Probleme, die du mit einer Larrabee basierten Erweiterung genauso haben kannst, wie mit Maxwell?
        Nur weil man seine gewohnten x86 Tools weiter verwenden kann, ändert sich ja nichts an den spezifischen Eigenschaften einer anders optimierten Recheneinheit (und genau die will man ja haben). Deswegen "Bequemlichkeit". Neuen Fragestellungen müssens ich die Entwickler so oder so stellen. Die Frage ist: Sind sie auch bereit, sie in einem neuen Dialekt zu beantworten? Und machen sie einen abrupten Sprung mit? Im Endergebniss gibt es keinen großen Unterschied (Unzulässlichkeiten bei individuellen, kommenden Implementationen mal außen vor), nur beim Weg dahin hat Intel einen psychologischen Vorteil.
        Das mein ich auch nicht. Es ist einfach die Art und Weise, wie man mit GPUs programmiert. Egal ob mit CUDA oder OpenCL. Wenn irgendwas im Kernel schief geht, ist dein Programm am Arsch, und du kannst nicht so locker flockig nachschauen, wo denn das Problem ist. Allein, das Printf nur scheise zu handhaben sind ist schon Kacke. Ganz abgesehen davon, dass die ständige Speicher rumkopiererei und die nicht mögliche Synchronisation zwischen den Threads unterschiedlicher Workgroups einem auch nicht gerade dabei hilft etwas zu debuggen.

        Es gibt einfach zu viele Auslöser, wo CUDA und OpenCL Programme einfach relativ nichtssagend aussteigen, und man auch keine Zeilenangabe bekommt, wos denn jetzt schief geht. Da kommt dann einfach nur ERROR.. und das wars, und das AUCH NUR! Wenn du jede drecks Eingabe manuell abfängst... Deswegen programmier ich z.B. OpenCL unter Windows wegen dem VS2011 PlugIn von AMD, welches mir die Arbeit komplett abnimmt. DAS ist unglaublich nützlich!

        Zitat

        Und genau dazu hätte ich gern mehr Informationen - oder das auch nur überhaupt von offizieller Seite gesagt. Denn bislang habe ich nur "mehr Bandbreite"-Versprechen gehört und das bevorzugt neben Hardwaresamples, auf deren Rückseite andere problemlos ein 512 Bit Interface unterbringen würden.
        Ich würde sagen, mit dem 30x so schnell wie DDR3 bei nur 70% des Energieverbrauchs kommste gut hin, wenn du das auf die einzelnen wires beziehst.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
890287
CPU
Unterstützung für DDR3 und DDR4
Die Kollegen von VR-Zone berichten über die kommenden Enterprise-Modelle von Intels Haswell-CPUs. Demnach könnte Intel seine bisherige TDP-Struktur mit 65, 95, 130 und 150 Watt aufgeben und etwas nach oben schrauben. Hauptkonkurrent für Intel in diesem Bereich ist nicht AMD, sondern Nvidias Maxwell-GPUs.
http://www.pcgameshardware.de/CPU-Hardware-154106/News/Unterstuetzung-fuer-DDR3-und-DDR4-890287/
13.06.2012
http://www.pcgameshardware.de/screenshots/medium/2012/04/Intel_PCH.png
haswell,intel,server,cpu
news