Online-Abo
Games World
      • Von PCGH_Torsten Redakteur
        Zitat von INU.ID
        Es geht ja eigentlich darum, im SSD-Pufferspeicher einer SSHD nur die Daten unterzubringen, die nötig sind, um eine Schreib- und/oder Leseanfrage soweit abzufangen, das die mechanische HDD im Hintergrund genug "Zeit" hat, die restlichen Daten (evtl. sogar tlw. Bypass am SSD-Cache vorbei/parallel direkt zum Bus) zu liefern/schreiben, ohne das es zu den Verzögerungen (bzgl. Zugriffszeit und Transferrate) einer klassischen HDD kommt. Das bedeutet, je schneller die mechanische HDD diese Daten liefern/schreiben kann, desto kleiner kann der SSD-Cache sein.

        Nur mit SSD-Cache alleine ist das nicht möglich. So lange der mechanische Teil einer SSHD deutlich langsamer ist, wird es bei der Datenübertragung irgendwann immer dazu kommen, das der SSD-Cache komplett leer oder gefüllt ist, und man quasi wieder so eine Performance hat, als wäre gar kein SSD-Cache vorhanden.

        Zum einen das, wobei ich hier gar nicht weiß wie die Daten aktuell auf den Plattern verteilt/angeordnet sind. Aber ich könnte mir vorstellen das hier (nach wie vor?) Stumpf von oben nach unten gearbeitet wird. Zum anderen könnte man hier schon die Performance drastisch erhöhen, in dem man nicht nur parallel die Köpfe benutzt, sondern diese vor allem auch einzeln ansteuert. Damit wäre es dann, durch eine ausgleichende Aufteilung, auch endlich möglich, das die Transferrate einer HDD einen konstanten Wert erreicht. Also nicht mehr von (beim aktuellen 8TB PMR-Modell afaik so) von 220MB/s am äußeren Rand auf 150MB/s am inneren Rand der Platter einbricht, sondern stattdessen zb. konstant 185MB/s schafft.

        So oder so, es hat sich bei den HDDs, mal von der gesteigerten Datendichte abgesehen, seit Jahrzehnten überhaupt nichts getan. Und das obwohl dort eigentlich noch sehr viel Potential liegt.
        Praktischer Weise machen große Dateien bei Real-World-Zugriffen einen relativ großen Teil aus. Eine SSHD mit intelligentem Algorithmus (Seagates erste mobile-Generation fand ich sehr überzeugend) braucht deswegen keinen großen Flash-Cache, weil sie in diesem nur die kleinen Dateien mit wenigen Kilobyte zwischenspeichert. Auf meiner Systempartition machen beispielsweise Dateien mit mehr als 500 MB 50 Prozent des Speicherplatzbedarfes aus. Selbst flotte M.2-SSDs brauchen für den Transfer dieser Datenmenge 200-400 ms, die Zugriffszeit spielt keine große Rolle mehr.

        Angeordnet werden Daten auf Festplatten meinem Wissen erst in der Spur, dann auf anderen Ebenen des Zylinders um Kopfbewegungen zu vermeiden. Eine einzelne Ansteuerung der Köpfe ist aber mit heutiger Technik möglich, denn die Aktuatoren sind viel größer, als der Abstand zwischen zwei Plattern. Es müssen sich also mehrere Arme einen Antrieb teilen. Möglicherweise könnte man zwei Antriebe unterbringen und dann einen Satz Köpfe von innen nach außen und den anderen gleichzeitig von außen nach innen lesen lassen – so hätte man ebenfalls eine konstante Datenrate.
      • Von Multithread Software-Overclocker(in)
        Zitat von PCGH_Torsten
        Statt 1 GB komprimierter Texturen zu Laden und von CPU und GPU entpacken zu lassen, müsste man 10-50 GB unkomprimierte Daten, am besten mit allem Mipmapstufen in vorberechneter Form in den Arbeitsspeicher kopieren. Bei ausreichend RAM würden schnellere Laufwerke dann die Ladezeit spürbar senken, aber die Installationsgrößen von Spielen würden auch drastisch ansteigen. (uneducated guess: Faktor 2 bis 10)
        Wenn es gelingt, diese Datenmaßen so abzulegen, dass sequentielle Burstzugriffe möglich sind, könnten immerhin HDD-RAID-Verbünde profitieren. In 60 Sekunden Ladezeit könnten diese, trotz relativ langsamer Lesegeschwindigkeit ganze Spieleinstallationen in den Arbeitsspeicher kopieren und sie sind auch in Multi-TB-Größe bezahlbar.

        Komplett unkomprimierte Daten in den RAM zu laden macht keinen sinn, denn der RAM ist immer um ein vielfaches schneller als das schnellste angeschlossene Laufwerk (Aktuell etwa um Faktor 25), selbst bei einer mittelmässigen Komprimierung mit schneller Dekompression ist man dann beim Laden schneller als wenn man man die Daten unkomprimiert lädt.

        Letzteres wird heute bereits gemacht, ansonsten könnte man die 1-5GB Daten für das Level von einer HDD gar nicht mehr in vernünftiger Zeit laden (es gibt leider immer einige Kleinzugriffe welche das ganze ausbremsen).
        Das Problem liegt eher beim Geld: Bei Spielen kommt es auf die Performance nur während der Schlacht drauf an, der Rest wird in Benchmarks ja nicht verglichen -> wird kein Geld für Bereitgestelt.
        Dabei könnte die meiste Heutige Software Daten vorladen, auch Spiele (zb. die Nächste Map, während noch das Spielresultat angezeigt wird). Dann spielt es auch kaum mehr eine Rolle wenn das Laden jetzt 30% langsamer ist, es geschieht nämlich im Hintergrund.

        Bei 'Software' ist es teils noch extremer: Abgesehen von einigen 'Randentwicklungen' und Funktionen wird oftmals überhaupt nicht auf die Performance geachtet. Lieber zeigt man dem Benutzer einen Kreisel, damit er Sieht das die Software etwas macht(Fals man nicht sogar das GUI einfrieren lässt), anstelle das man sich überlegt ob man das nicht eventuell verbessern kann.

        4-Kerner mögen im Desktop angekommen sein. Bei der Software wird aber weiterhin meist nur Ein Kern verwendet. Und da hilft dann das Schnellste Laufwerk nichts.

        Zitat von PCGH_Torsten

        Meiner Erinnerung nach wurden dieses Jahr zwei vergleichsweise günstige Dual-Lane-NVME-Controller vorgestellt. Es sollten also bald spürbar günstigere low-end-PCI-Express-SSDs möglich sein. Der Materialaufwand wäre aber nicht geringer, als bei heutigen M.2-SATA-Modulen.

        Ich weiss nicht ob 2 Lanes wirklich so ein guter zwischenwert sind, denn der unterschied von 1800 auf 3600 MBit/s macht auf dem Papier schon einiges her.
        Wobei ich da als Power User auch nicht für den Normalbenutzer Reden kann.

        Ich bereue es fast ne 950 pro gekauft zu haben, fast.
        Die 960 Pro sieht echt interessant aus, insbesondere von der Rohleistung her.
      • Von Threshold Flüssigstickstoff-Guru (m/w)
        Hört sich gut an.
        Davon 4 Stück für das nächste System und ich bin zufrieden.
      • Von INU.ID Moderator
        Zitat von PCGH_Torsten
        Zwei getrennte Arme würden die Zugriffszeit zwar halbieren, aber SSDs sind noch einmal um den Faktor 100 flinker. Da sind SSHDs der sinnvollere Weg.
        Es geht ja eigentlich darum, im SSD-Pufferspeicher einer SSHD nur die Daten unterzubringen, die nötig sind, um eine Schreib- und/oder Leseanfrage soweit abzufangen, das die mechanische HDD im Hintergrund genug "Zeit" hat, die restlichen Daten (evtl. sogar tlw. Bypass am SSD-Cache vorbei/parallel direkt zum Bus) zu liefern/schreiben, ohne das es zu den Verzögerungen (bzgl. Zugriffszeit und Transferrate) einer klassischen HDD kommt. Das bedeutet, je schneller die mechanische HDD diese Daten liefern/schreiben kann, desto kleiner kann der SSD-Cache sein.

        Nur mit SSD-Cache alleine ist das nicht möglich. So lange der mechanische Teil einer SSHD deutlich langsamer ist, wird es bei der Datenübertragung irgendwann immer dazu kommen, das der SSD-Cache komplett leer oder gefüllt ist, und man quasi wieder so eine Performance hat, als wäre gar kein SSD-Cache vorhanden.

        Zitat
        Für höhere Transferraten wäre es wesentlich spannender, wenn mehrere Leseköpfe auf einem Arm gleichzeitig arbeiten könnten.
        Zum einen das, wobei ich hier gar nicht weiß wie die Daten aktuell auf den Plattern verteilt/angeordnet sind. Aber ich könnte mir vorstellen das hier (nach wie vor?) Stumpf von oben nach unten gearbeitet wird. Zum anderen könnte man hier schon die Performance drastisch erhöhen, in dem man nicht nur parallel die Köpfe benutzt, sondern diese vor allem auch einzeln ansteuert. Damit wäre es dann, durch eine ausgleichende Aufteilung, auch endlich möglich, das die Transferrate einer HDD einen konstanten Wert erreicht. Also nicht mehr von (beim aktuellen 8TB PMR-Modell afaik so) von 220MB/s am äußeren Rand auf 150MB/s am inneren Rand der Platter einbricht, sondern stattdessen zb. konstant 185MB/s schafft.

        So oder so, es hat sich bei den HDDs, mal von der gesteigerten Datendichte abgesehen, seit Jahrzehnten überhaupt nichts getan. Und das obwohl dort eigentlich noch sehr viel Potential liegt.
      • Von Giesbert_PK Sysprofile-User(in)
        Zitat von Incredible Alk
        Da hab ich ja nichts dagegen - wenn der M.2-Slot bei meinem Board lediglich ein paar Millimeter tiefer sitzen würde (noch besser Position der BIOS-Steine und Batterie getauscht mit M.2-Slot) könnte man eine solche Steckkarte auch ohne GPU-Ausbau einsetzen.
        Klar ist man als WaKü-Nutzer eine winzige Zielgruppe, persönlich würde ich aber die etwaigen Problemchen mit anderen Anschlüsen wenn man den Slot unten platziert als gering einschätzen, meine vergangenen Boards hatten da auch keine Probleme.

        Sehr geil fand ich an der Stelle, dass iirc das ASUS-Board einen senkrechten M.2 Anschluss hatte. Sieht zwar seltsam aus wenn da ne Karte hochsteht aber der Slot ist super erreichbar, behindert keinerlei andere Komponenten und das viel bescholtene Überhitzungsproblem (das eigentlich nie auftritt^^) ist damit auch gedämpft.
        Das würde ich so Unterschreiben
  • Print / Abo
    Apps
    PC Games Hardware 11/2016 PC Games 10/2016 PC Games MMore 10/2016 play³ 11/2016 Games Aktuell 10/2016 buffed 10/2016 XBG Games 09/2016
    PCGH Magazin 11/2016 PC Games 10/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1208423
SSD
Samsung SSD 960 Pro/Evo vorgestellt: M.2-Leistungswunder
Während des Global SSD Summits 2016 in Seoul hat Samsung seine beiden Flaggschiffe SSD 960 Pro und Evo vorgestellt. Die auf dem M.2-Format basierenden Karten nutzen das NVMe-Protokoll und werden mit vier PCI-Express-3.0-Lanes angebunden.
http://www.pcgameshardware.de/SSD-Hardware-255552/News/Samsung-SSD-960-Pro-Evo-Preis-Release-1208423/
21.09.2016
http://www.pcgameshardware.de/screenshots/medium/2016/09/Samsung_SSD-960-PRO_EVO-pcgh_b2teaser_169.jpg
news