Online-Abo
  • Login
  • Registrieren
Games World
  • SSD-"Festplatten": Funktionsweise, Fachbegriffe und Eigenschaften erklärt

    Im Zusammenhang mit SSDs (gerne auch "SSD-Festplatte" genannt) fallen sehr oft Fachbegriffe oder Abkürzungen wie SATA, M.2 oder PCI-Express-SSDs und nicht jedem ist klar, was sie bedeuten. In diesem Artikel erklären liefern wir Ihnen leicht verständlich die wichtigsten Informationen zu SSDs und ihrem aktuellen Technologiestand und gehen auf die Eigenschaften und Anforderungen moderner SSDs ein.

    SSDs entwickeln sich rasant weiter: Innerhalb weniger Jahre haben sich von Laufwerken, für die SATA 1,5 GBit/s noch ausreichend war, zu Speichermedien entwickelt, die lange Zeit jeden Schnittstellenstandard vor sich hertrieben. Dementsprechend viele Änderungen gab es auch im Laufe dieser Zeit. In diesem Artikel wollen wir alles Wissenswerte zu SSDs leicht verständlich zusammenfassen. Dabei gehen wir auf die interne Funktionsweise ebenso ein wie auf die diversen Möglichkeiten, eine SSD anzubinden, und die Arten, wie Sie mit dem Host-System kommuniziert.

    Innenleben einer SSD: Controller, Cache, NAND

    SSD-Controller SSD-Controller Quelle: PCGH Eine moderne SSD besteht meist aus drei verschiedenen funktionalen Komponenten: Dem Controller, dem Cache (Zwischenspeicher) sowie dem Flash-Speicher (NAND). Der Controller stellt das Bindeglied zwischen Host-System und dem Flash-Speicher dar. In der Regel handelt es sich dabei um eine ARM-CPU, die durchaus mehrere Kerne haben kann. Der Controller übernimmt und beantwortet die Anfragen vom Host-System und übernimmt die gesamte Verwaltung des Flash-Speichers. Ein Controller bindet den Speicher über mehrere sogenannter Kanäle (zwischen 4 und 40+) an, wobei der Speicher auf die Kanäle aufgeteilt wird. Der Controller kann über die Kanäle parallel das NAND lesen und beschreiben ("Interleaving", manchmal auch "RAIN"). Den meisten SSD-Controllern steht ein schneller Zwischenspeicher (Cache) zur Seite, der die Arbeitsgeschwindigkeit der SSD beschleunigt oder ihr den einen oder anderen Zugriff auf das NAND erspart. Der Controller ist in der Regel mit eigener Software ausgestattet (Firmware), die das gesamte Regelwerk für seine Aufgaben festlegt.

    03:48
    Alte gegen neue SSD im Video: Spieleladezeiten, Windows-Boot und Kopiertest

    Flash-Speicher: Die Diva unter den Festspeichern

    NAND-Flash NAND-Flash Quelle: PC Games Hardware Das Flash ist die Komponente, welche die eigentliche Aufgabe einer SSD erfüllt. Oft spricht man dabei auch vom NAND-Speicher, da derzeit übliches Flash fast ausschließlich aus logischen NAND-Gattern ("Not-AND", "Nicht-UND") besteht. Dieser Speichertyp ist technisch zwar verwandt mit RAM, kann aber anders als letzterer Daten auch ohne ständige Energieversorgung speichern. Organisiert ist der Flashspeicher meist in Blöcken von 4.096 Byte Größe. Alle Bits innerhalb eines Blockes können zwar einzeln beschrieben, aber nur gemeinsam gelöscht werden. Veränderte Daten werden deshalb nicht sofort gelöscht, sondern vorerst nur als ungültig markiert und die aktuelle Version in einen anderen Bereich des Blockes geschrieben. Erst wenn der Block komplett mit veralteten Daten belegt ist, wird er vollständig zurückgesetzt.

    Das Löschen geschieht mit einer im Vergleich zum Lesen höheren Spannung, welche den Speicher auf lange Sicht verschleißt. Algorithmen sorgen in modernen SSDs dafür, dass der Speicher über seine gesamte Kapazität hinweg gleichmäßig altert (Wear Leveling). Die Hersteller geben die garantierte Schreibleistung in Terabyte an, üblich sind Werte > 50 TB. Sollten Speicherzellen vorzeitig kaputt gehen, werden sie durch einen Speicherbereich, der für die normale Verwendung nicht zugänglich ist, ersetzt. Dieses Verfahren heißt "Over Provisioning" und hilft nicht nur beim Ersetzen schadhafter Speicherbereiche, sondern auch beim kurzzeitigen Umschiffen eventueller Speichknappheit, wenn außerhalb des Overprovisioning-Speichers nur noch Speicherblöcke mit veralteten Daten zur Verfügung stehen. Flash-Speicher kann anders als HDD-Speicher nicht einfach überschrieben werden, sondern muss vorher zurückgesetzt werden, was das Löschen eines gesamten Blockes bedingt. Muss das während eines Schreibvorganges vorgenommen werden, bricht die Geschwindigkeit einer SSD stark ein.

    03:05
    USB 3.1: Asus USB 3.1 Enclosure im Video vorgestellt

    Trim-Check überpüft, ob Trim auf dem aktuellen System funktioniert. Trim-Check überpüft, ob Trim auf dem aktuellen System funktioniert. Quelle: PC Games Hardware Das war vor allem in den Anfangszeiten der SSDs ein Problem. Denn Betriebssysteme entfernen gelöschte Dateien in der Regel nicht wirklich, sondern nur die Referenzen in den Verzeichnistabellen ihrer Dateisysteme. Physisch sind die Dateien also immer noch erhalten. Eine SSD hatte lange Zeit keine Möglichkeit, gelöschte von nicht gelöschten Dateien zu unterscheiden. Das änderte sich erst mit der Einführung der ATA-Erweiterung "Trim", durch die das Betriebssystem eine SSD über das Löschen von Dateien informiert. Der Controller ist durch die Trim-Anweisungen des Betriebssystems über alle gelöschten Dateien im Bilde und kann das Nullen der Speicherbereiche präventiv während der Leerlaufphasen vornehmen.

    Kommunikationswege: AHCI, NCQ, NVME und mehr

    SSDs kommunizieren derzeit über zwei Protokolle mit dem Hostsystem. Das ältere und verbreitetere trägt den Namen AHCI ("Advanced Host Controller Interface") und wurde im Zuge der Umstellung von PATA auf SATA eingeführt. Kernfunktion des Protokolls sind NCQ ("Native Command Queue"), das dem Controller die Umsortierung der eingehenden Anfragen erlaubt. Das ist vor allem in Bezug auf Festplatten wichtig, da der größte Zeitverlust durch unnötige Bewegungen des Schreib-Lese-Kopfes sowie die Wartezeiten auf die richtige Position der Scheiben entsteht. Durch das Umsortieren der Befehle können diese teilweise eingespart werden. Die AHCI-Command-Queue fasst insgesamt 32 Befehle.

    Mit 32 Befehlen sind SSDs aber nur für Mikrosekunden beschäftigt, bevor sie sich wieder im Leerlauf begeben. Deshalb wurde beim Nachfolger NVME ("Non Volatile Memory Express") darauf geachtet, ausreichend viele und ausreichend lange Queues für moderne und auch kommende SSDs zu integrieren. Im Standard sind 2^16 Warteschlangen mit ebenso vielen Befehlsplätzen vorgesehen. Passende Controller arbeiten mit Multicore-CPUs zusammen, zudem reduziert das Protokoll die notwendigen nicht zwischenspeicherbaren Zugriffe auf Steuerregister im Vergleich zu AHCI deutlich.

    SATA Express SATA Express Quelle: PC Games Hardware Neben diesen logischen Interfaces gibt es noch verschiedene physische beziehungsweise elektrische Schnittstellen, die von SSDs genutzt werden. Der aktuelle Standard sind SATA(-6-Gbit/s)-Laufwerke. Damit sind brutto 750 MB/s, netto wegen der 8b10b-Kodierung nur 600 MB/s möglich. Der Nachfolgestandard SATA Express (SATA 3.2) nutzt zwar PCI-Express-Lanes, davon aber maximal nur zwei, was mit PCI-Express bestenfalls (mit PCI 3.0) einen Maximaldurchsatz von 1.969 MB/s ermöglicht - schon zu langsam für die schnellsten modernen SSDs. Auch deshalb fristet dieser Anschlussstandard derzeit ein Nischendasein und wird wohl von U.2 ersetzt werden. Aber immerhin liegen nicht benötigte SATA-Express-Anschlüsse nicht brach: Jede SATA-Express-Buchse kann mit zwei SATA-SSDs bestückt werden. U.2 kommt dagegen im Gewand des Mini-SAS-HD-Anschlusses (Mainboard-seitig) beziehungsweise in dem eines leicht veränderten normalen SAS-Steckers (laufwerksseitig) daher, unterstützt bis zu vier PCI-E-Lanes und damit fast 4 GB/s. Die gleichen Geschwindigkeitsangaben gelten auch gilt für M.2-Slots, wobei diese in der Regel erst ab den PCHs X99 und Z170 mit mehr als zwei PCI-E-Lanes angebunden sind. M.2-Anschlüsse auf Z97- und älteren Mainboards sind fast immer auf zwei PCI-E-Lanes beziehungsweise auf solche mit PCI-E-2.0-Standard beschränkt.

    03:03
    Videoserie: PCGH baut einen PC - Teil 7 - Die Solid State Disk

    Formfaktoren: (M-)SATA, M.2, U.2, SATA Express

    M.2-SSD M.2-SSD Quelle: Samsung

    Wer heutzutage eine SSD kauft, greift meistens zu einem Modell im 2,5-Zoll-Format, das mit einem SATA-Anschluss ausgerüstet ist - in Notebooks findet man auch oft M-SATA (Mini SATA). Dieser Formfaktor kommt jedoch auch bei U.2-Laufwerken zum Einsatz. Für eventuelle SATA-Express-Laufwerke wäre ebenfalls dieses Format vorgesehen. Wesentlich erfolgreicher ist hier jedoch der M.2-Formfaktor, bei dem es sich um anschlussseitig 22 mm breite Platinen mit variierender Länge handelt. Am häufigsten trifft man jedoch auf M.2-SSDs mit 80 mm Länge. M.2 unterstützt verschiedene Schnittstellen (auch SATA), am interessantesten ist der Formfaktor aber zusammen mit einer Anbindung von vier PCI-E-3.0-Lanes, was von modernen SSDs wie die Samsung SSD 950 Pro auch ausgenutzt wird. Aufgrund des beschränkten Platzes gibt es bislang nur wenige Modelle mit 1 TB Speicherplatz. Das sollte sich mittelfristig aber ändern. Schon seit Längerem werden reinrassige PCI-E-Steckkarten angeboten, die ebenfalls verschiedene Größen aufweisen können. Das gängigste ist dabei das HHHL-Format ("Half Height Half Lenght").

    Verpassen Sie auch nicht unseren Test-Artikel zu SSD-Festplatten.

      • Von Fawkes Komplett-PC-Käufer(in)
      • Von wuselsurfer Software-Overclocker(in)
        LBA = Large Block Array ?

        Die kleinste beschreibbare Festplatteneinheit ist doch ein Cluster, oder?
        Ein Cluster = x Blocks.
        Ein Block = 512Byte (erste FAT12 IBM-Diskettenblockgröße).
      • Von Fawkes Komplett-PC-Käufer(in)
        Deswegen schrieb ich ja auch drüber, dass es nicht "ganz" richtig ist.
        Die Aussage "SSDs soll man nicht defragmentieren." ist eben eine Vereinfachung, die sich in der Praxis bewährt hat. Die Aussage "SSDs defragmentieren bringt keinerlei Vorteile." hingegen ist eben nicht ganz korrekt...

        Edit: Damit es evtl. noch etwas verständlicher wird und man nicht unbedingt den ganzen Textblock lesen muss hier ein stark vereinfachtes Beispiel von fsironman auch aus dem Thread vom forumdeluxx:

        Zitat
        Die Zahlen sind fiktiv und als maximale gleichzeitig mit einem Befehl lesbare LBA nehmen wir 100 an.

        Wir nehmen an, dass die Datei 1000 LBA groß ist.

        Fall 1 liegt diese im Dateisystem an einem Stück.

        Befehl an die SSD:
        Lies LBA 0-99
        Lies LBA 100-199
        Lies LBA 200-299

        .... (6x)

        Lies LBA 900-999

        = 10 Befehle mit entsprechenden Overhead

        Fall 2 liegt diese in 1000 Teilen im Dateisystem.
        Befehl an die SSD:
        Lies LBA 14
        Lies LBA 345
        Lies LBA 4576

        .... (994x)

        Lies LBA 5346

        = 1000 Befehle mit entsprechenden Overhead

        Gehen wir davon aus das der Overhead so groß wie 1 LBA ist

        Dann haben wir in Fall 1 Daten äquivalent zu
        1010 LBA gelesen
        und in Fall2
        2000 LBA gelesen
      • Von Incredible Alk Moderator
        In dem Text von Holt steht zu 98% genau das, was wir da oben auch schon beschrieben haben.

        Einziger Zusatz ist, dass eine SSD sozusagen mehr Aufwand haben kann wenn die Daten ungünstig in den Blöcken verteilt sind. Das stimmt auch, da dann insgesamt mehr Daten gelesen werden müssen. Eine SSD kann immer nur ganze Blöcke lesen - wenn von einem gelesenen Block nur die ersten 3 Zeichen benötigt werden muss dennoch der ganze Block gelesen werden. Ist eine benötigte Datei jetzt auf 1000 Blöcken immer in den ersten 3 zeichen verteilt muss die SSD viel mehr Daten lesen als wirklich gebraucht werden. Die SSD wird nicht langsamer - nurist die zu lesende Datenmenge größer. Das ist aber nicht Fragmentierung in dem Sinne.

        Klassische Fragmentierung bei Festplatten bedeutet, dass die zu lesenden Dateiblöcke verstreut auf den Plattern liegen und der Schreib-Lesearm lange braucht bis er sie zusammengesucht hat (unabhängig vom Dateiinhalt der Blöcke). Das kennen SSDs nicht weil sie keinen solchen Schreib-Lesekopf bewegen müssen und jede Zelle gleich schnell gelesen werden kann (nicht ganz aber für diese Thematik vereinfacht^^).

        Was Holt bei SSDs beschreibt ist eine prinzipielle Eigenart der Speichertechnik dass man Blockweise speichert (HDDs tun das auch, in 512er oder 4096er Blöcken je nach Modell, im Consumerbereich oft intern 4096 und nach außen wg. Kompatibilität emulierte 512) und immer ganze Blöcke lesen muss was je nachdem wie Daten über Blöcke verteilt sind ungünstig sein kann das ist korrekt. Der Effekt dürfte aber wie er auch richtig schreibt in der Praxis quasi keinen Einfluss haben.
      • Von Fawkes Komplett-PC-Käufer(in)
        Zitat von iGameKudan
        [...]
        Zitat von Incredible Alk
        [...]
        Sorry, aber eure Aussagen stimmen so nicht ganz. Anstatt das selbst nun hier auszuführen zitiere ich mal einen Beitrag von Holt aus dem forumdeluxx:

        Zitat
        Zunächst mal folgendes, was viele oder alle nicht zu wissen scheinen die sich gegen eine Defragmentierung von SSD aussprechen, weil es nichts bringen würden und die SSDs ja die Daten intern sowieso anders anordnen und quer über die NANDs verteilen, als es von außen scheint. Weder SSDs noch HDDs kennen Partitionen, Filesystem, Dateien, Verzeichnisse oder auch eine Fragmentierung! Das alles sind Geschichte die auf einer logischen Ebene darüber passieren, nämlich im Betriebssystem und dessen Routinen zu Verwaltung der Datenträger, zu denen auch das Filesystem gehört, denn ein Filesystem ist mehr als seine Datenstrukturen auf dem Datenträger, es gehört auch eine Menge Software dazu!

        HDDs wie SSDs stellen nur eine Menge LBAs zu Verfügung, die i.d.R. je 512 Byte verwalten und es werden dann ATA Befehle benutzt, die fast immer einen LBA X und Y folgende LBAs auslesen oder beschreiben. Bestimmte Daten an bestimmten Adressen werden dann vom Betriebssystem eben entsprechend interpretiert, die selben Bytes am Anfang im MBR die Partitionstabelle ausmachen, könne an anderer Stelle die Pixel in einem Bild darstellen, das weiß weder eine HDD noch eine SSD. Es stimmt das die Controller von SSDs die Daten quer über die NANDs verteilen, aber das hat einen Sinn, denn so können bei langen Zugriffen wegen der internen Parallelität die sequentiellen Transferraten gesteigert werden, aber die maximalen Transferraten erreichen SSDs eben erst, wenn die Zugriffe auf über viele aufeinanderfolgende LBAs erfolgen und ein ATA EXT Befehl kann bis zu 2^16 LBAs adressieren denn es ja wird nicht LBA für LBA gelesen, was bei 512 Byte pro LBA dann 32MiB sind. Moderne SATA SSDs erreichen oft erst bei Zugriffe von 512 Kilobyte ihre vollen Transferraten und PCIe SSDs brauchen dafür sogar noch längere Transfers. Im IDE Modus werden nur ATA Befehle unterstützt, die maximal 2^8 LBAs adressieren können, also 128k, was nicht reicht und daher haben die SSDs im IDE Modus dann auch immer deutlich geringere sequentielle Transferraten, meist knapp über 300MB/s.

        Was hat das nun mit der Fragmentierung zu tun? Filesysteme bemühen sich die Dateien in einem Fragment abzulegen, also die Dateien ab einem bestimmten LBA (bzw. Cluster, aber das ist für das Thema egal, denn ein Cluster lässt sich nach der Formel "Offset der Partition + Clusternummer * LBAs pro Cluster" fix in LBAs umrechnen und das muss das Betriebssystem auch machen, da die Platten eben nur LBAs und keine Cluster verwalten) und dann auf allen folgenden zu legen. Nur wachsen eben Dateien wie Logdateien oder auch der Aufsatz über Fragmentierung an dem man scheibt und der immer länger wird während er zwischendurch immer mal gespeichert wird oder es gibt keine Lücke im Filesystem um die Datei aufzunehmen. Lücken im Filesystem sind Bereiche von LBAs die nicht von Dateien belegt sind, wo also neue Dateien abgelegt werden können.

        Ist es nun nicht möglich eine Datei in einem zusammenhängenden LBA Bereich zu speichern, spricht man von Fragmentierung, weil Dateien dann eben nicht mehr nur in einem Fragment abgelegt sind, Fragmentierung betrifft also auch immer nur einzelne Dateien, mal mehr mal weniger auf einer Partition, denn es ist ein Problem des jeweiligen Filesystems und nicht das muss nicht mit der Platte identisch sein, es kann über mehrere Platte gehen so wie eine Platte mehrere Partitionen und damit Filesystem haben kann, aber wie gesagt ist dass nur eine logische Aufteilung des Betriebssystems und der Controller der Platte, egal ob SSD oder HDD, weiß nichts davon.

        Was passiert nun wenn eine Datei fragmentiert ist? Nun ein Befehl kann bis zu 32MiB adressieren und ab etwa 512k erreichen moderne SSDs ihre volle Performance. Bei 4k (8 LBAs) sind es viel weniger (ein Blich auf die 4k Ergebnisse von AS-SSD oder CrystalDiskMark zeigt das auch deutlich), 4k sind die kleinste Clustergröße bei den meisten aktuellen Filesystemen, ein Cluster ist auch die kleinste mögliche Größe eines Fragments. Nun liest ein Betriebssystem beim Lesen einer Datei mit einem Befehl immer nur bis zur Grenze eines Fragmentes und dann mit einem weiteren Befehl ab dem Anfang des nächsten Fragmentes bis zur Länge des Puffers oder bis zum Ende des Fragmentes.

        Dann müssen bei einer HDD die Köpfe an die neue Position fahren, wo das nächste Fragment anfängt und fast alle die über Fragmentierung fahren, was länger dauert und das ist der einzige Aspekt an fast alle bei Fragmentierung denken. Das hört man oft auch, das dauert, da spürt man die Fragmentierung. Das ist aber nicht die Fragmentierung, es ist nur ein Ergebnis der Fragmentierung und das fällt bei SSD in der Tat weg, da diese sehr kurze Zugriffszeiten haben, aber deswegen bleiben sie von Fragmentierung nicht unberührt, denn durch die Fragmentierung werden mehr Zugriffe nötig und die Länge der Zugriffe, also wie viele LBAs mit einem Befehl adressiert werden, wird dadurch kürzer und das beeinflusst eben auch bei SSD die Performance, wenn auch längst nicht so massiv wie bei HDD!

        Um die Einflüsse von Fragmentierung besser zu zeigen, sollte man sich einen Extremfall ansehen, den kann man auch mit etwas Programmiererkenntnissen leicht nachstellen: Man erstellt eine Partition, formatiert sie mit 4k pro Zuordnungseinheit (Cluster), bencht mit AS-SSD, formatiert noch mal und beschreibt diese Partition mit 4k großen, durchnummerierten Dateien. Dann löscht man z.B. alle Dateien mit gerader Endziffer (oder alle mit einer 0 hinten, das verschärft den Test noch, da moderne NAND durchaus 16k Pagesize haben) und bencht erneut. Man darf dann auch der SSD Zeit für die Idle CG lassen und nochmal benchen, damit die Effekte der internen Datenorganisation keine Rolle spielen. Die sequentiellen Transferraten (vor allem Lesend) werden schlechter sein, mindestens um 100MB/s bei SATA SSDs im AHCI Modus und bei einer schnellen PCIe SSD wie der SM951 oder im IDE Modus noch viel deutlicher!

        Was passiert bei dem Test? Nun statt weniger Zugriffe mit 1MB (oder weniger, je nachdem was der Treiber darauf macht) werden viele Zugriffe mit 4k erfolgen und selbst wenn diese parallel erfolgen, sind die Transferraten deutlich geringer, schon weil mehr Overhead nötig ist. Die Befehle und Bestätigungen etc. müssen ja auch über den SATA Kanal mit seinen maximal 600MB/s und pro FIS (Übertragungspaket, je mit Overhead wie z.B. eigner CRC) werden maximal 8k übertragen und bei nur 4k pro Befehl gehen eben auch über SATA 6Gb/s maximal so 400MB/s.

        Fragmentierung hat also auch auf SSDs einen Einfluss, weil es die Art und Länge der Zugriffe ändert, nicht aber den Effekt wie bei HDDs, weil eben die Zugriffszeiten von SSDs kürzer sind. Wenn ein Treiber sowieso nur 1MiB pro Zugriff liest und alle Fragmente genau ein MiB groß sind, wird es keinen Einfluss auf die Performance einer SSD haben, ist aber jedes Fragment nun genau 1028k lang, so wird für jede Fragment neben dem 1024k langen Zugriff noch ein weiterer mit nur 4k nötig und damit fällt die Performance.

        Defragmentieren schaden SSDs auch nicht wirklich, sie wissen ja auch nicht was es ist. Für den Controller der SSD sind es Lese- und Schreibvorgänge wie alle anderen Lese- und Schreibvorgänge auch und die bewirken einen bestimmten Verschleiß also Verbraucht von P/E Zyklen der NANDs, aber ordentliche SSD mit NANDs in normalen Qualitätsstufen wie sie für SSDs gedacht sind, können so viele P/E Zyklen vertragen, da macht das keinen Unterscheid. In allen Endurancetests haben die SSDs viele Hundert TB bis einige PB ausgehalten, ein normaler Heimanwender schreibt kaum 10TB im Jahre, nur wenige schaffen mehr und die werden sich meist auch regelmäßig die neuste, größte, schnellste SSD kaufen. Außerdem ist der Effekt von Fragmentierung bei SSDs eben viel geringer als bei HDDs die muss man bei weitem nicht so oft defragmentieren wie HDDs.

        Böse Schatten oder hat die Defragmentierung keinerlei Nachteile außer ein wenig Verschleiß? Doch, es gibt noch einen Aspekt, das Schattenfilesystem, welches viele SSD Controller führen. Die kennen ja nun einmal keine Dateien und verteilen die Daten so über die NANDs, dass diese möglichst schnell geschrieben und gelesen werden können. Daher können sie das nur aufgrund der Lese- und Schreibbefehle entscheiden, welche Daten zusammengehören und das bezeichnet man als Schattenfilesystem. Werden beim Defragmentieren nun stark fragmentierte Dateien aus vielen kleinen Bereichen auf einen zusammenhängenden Bereich von LBAs kopiert, so kann der Controller der SSD dies eben nicht als eine zusammenhängende Datei erkennen und legt diese Daten so ab, als wenn es einzelne kleine Dateien werden, er rechnet also nicht damit, dass dieser neu geschaffene Bereich dann später zusammenhängend gelesen werden wird. Deshalb funktionieren ja auch Low-Level Benchmarks wie HD Tune bei SSDs nicht korrekt. Außerdem liest HD Tune in der Standardeinstellung auch nur alle paar MB mal 64k, was eben nicht reicht um bei SSDs die maximalen sequentiellen Leseraten zu erzielen.

        Was macht Windows? Nun vor Win 7 kannte Windows keine SSDs. Bei Win 7 werden SSDs sofort aus dem Zeitplaner des Deframentierdienstes geworfen, man kann sie auch nicht manuell dort eintragen, Das kann man auch gleich nach dem Klonen von einer HDD prüfen, sobald der Dienst startet fliegen die SSD da raus, manuell kann man aber auch noch eine Defragmentierung für SSDs anstoßen. Ab Win 8 (oder besser bei 8 und 8.1, keine Ahnung was Win 10 da macht) ist es anders, da bleiben die SSD im Zeitplaner des Defragmentierdienstes stehen, aber es wird keine Defragmentierung für SSD mehr ausgeführt, sondern ein Batch- oder Offline TRIM wie bei Linux mit fstrim. Dabei werden alle LBAs die als unbelegt erkannt werden getrimmt. Man muss also bei Win7 den Service nicht deaktivieren und sollte es ein Win 8(.1) auch keineswegs tun.

        So, das war nun einen Menge und für viele Leser dürfte auch eine Menge neu sein und vielleicht mit dem bisher geglaubten kollidieren, bitte erst noch einmal lesen, dann nachdenken und googlen und erst dann antworten!
        Auch wenn das was Holt schreibt theoretisch stimmt, in der Praxis kann man das Defragmentieren von SSDs in 99,9% der Fälle getrost weglassen. Den Unterschied merkt wohl eh kaum einer und den meisten meiner Kunden ist weniger "Aufwand" deutlich lieber als ein klein wenig mehr Performance.

        PS.: Respekt an diejenigen, die den ganzen Beitrag gelesen (und verstanden) haben.
  • Print / Abo
    Apps
    PC Games Hardware 01/2017 PC Games 12/2016 PC Games MMore 01/2016 play³ 01/2017 Games Aktuell 12/2016 buffed 12/2016 XBG Games 11/2016
    PCGH Magazin 01/2017 PC Games 12/2016 PC Games MMORE Computec Kiosk On the Run! Birdies Run
article
1189745
SSD
SSD-"Festplatten": Funktionsweise, Fachbegriffe und Eigenschaften erklärt
Im Zusammenhang mit SSDs (gerne auch "SSD-Festplatte" genannt) fallen sehr oft Fachbegriffe oder Abkürzungen wie SATA, M.2 oder PCI-Express-SSDs und nicht jedem ist klar, was sie bedeuten. In diesem Artikel erklären liefern wir Ihnen leicht verständlich die wichtigsten Informationen zu SSDs und ihrem aktuellen Technologiestand und gehen auf die Eigenschaften und Anforderungen moderner SSDs ein.
http://www.pcgameshardware.de/SSD-Hardware-255552/Specials/Festplatte-1189745/
23.03.2016
http://www.pcgameshardware.de/screenshots/medium/2015/01/Transcend_M2_SSMs-pc-games_b2teaser_169.jpg
specials