Mit All-Flash-Speicher auf dem Siegeszug 2018

Das Speichern von Daten auf persistenten (nicht-flüchtigen) Datenträgern gehört von Anbeginn der elektronischen Datenverarbeitung zu den wichtigsten Aufgaben. Programmroutinen für die Verarbeitung der Eingabedaten sowie die berechneten Ergebnisse, sollten und mussten dauerhaft einem Medium gespeichert werden.
 
Die Geschichte der Speichermedien hat sich seit Beginn in einem enormen Tempo entwickelt. Waren vor etwa 60 Jahren noch Lochkarten vielerorts das Mittel zum Zweck, wurden ab den 1960er Jahren zunehmend elektronische Speichermedien wie Magnetbänder, Disketten und später auch magnetische Festplatten eingesetzt, um immer größere Datenmengen zuverlässig und vor allem dauerhaft speichern zu können.

Schon im Jahre 1978 wurde dabei eine Technologie namens „Solid-State-Drive“ entwickelt, fast 30 Jahre bevor diese Art der Speichermedien für den allgemeinen Konsumenten in nutzbaren und vor allem auch bezahlbaren Kapazitäten zur Marktreife entwickelt wurden. Ende 2008 kam beispielsweise die Mtron Mobi 3500 Serie mit 32 GB Kapazität auf den Markt. Herkömmliche magnetische Festplatten waren zu diesem Zeitpunkt bei Kapazitäten von ca. 1,5 TB angelangt.
 
Heute, etwa zehn Jahre später, hat sich das Bild komplett gewandelt. Vor wenigen Wochen präsentierte der Hersteller Samsung mit der PM1643 sein neuestes Flaggschiff mit sage und schreibe 30,72 TB Speicherplatz, sprich etwa um den Faktor 1.000 größer als vor zehn Jahren. Zum Vergleich: Die größte herkömmliche Festplatte ist derzeit mit einer maximalen Kapazität von 14 TB erhältlich. Somit hat sich diese Technologie innerhalb des gleichen Zeitraumes in Sachen Speicherdichte lediglich um den Faktor 10 verbessert – ein riesengroßer Unterschied.

Insgesamt haben hauptsächlich drei Entwicklungen zu diesem enormen Sprung bei den Solid-State-Drives beigetragen. Entwicklung Nummer 1 ist die übliche Reduktion der Fertigungsverfahren (Strukturgrößen), wodurch mehr Transistoren auf der gleichen Fläche platziert werden können. Entwicklung Nummer zwei ist die Tatsache, dass die verwendete NAND-Speicher vor zehn Jahren in der Regel lediglich ein Bit pro Zelle (SLC = Single-Level Cell) speichern konnten, während heutige NAND-Speicher bis zu vier (QLC = Quad-Level-Cell) Bits pro Speicherzelle verarbeiten können. Auch MLC (zwei Bits / Zelle) und TLC (drei Bits / Zelle) kommen häufig zum Einsatz. Die dritte Entwicklung ist die Einführung von drei-dimensionalen NAND-Speichern (3D-NAND oder auch V-NAND genannt), wo mehrere Zellschichten in einem 3D-Verbund mit bis zu 64, 72 oder in kommender Generation 96 Lagen übereinandergestapelt werden.

Alle diese Technologien ermöglichten nicht nur immer größere Laufwerke, sondern verhalfen der Technologie auch zu einem rapiden Preisverfall hinsichtlich Preis pro Gigabyte. Allerdings sei an dieser Stelle erwähnt, dass die Entwicklung der Preise in den letzten zwei bis drei Jahren sich ein wenig verlangsamt hat – weil schlicht und ergreifend die Nachfrage oft größer als das Angebot war.
 
Waren die Solid-State-Laufwerke vor zehn Jahren bei der Kapazität den herkömmlichen Festplatten noch klar unterlegen, war ein wichtiger Faktor schon damals ein wesentlicher Vorteil der SSD-Technologie: Die Anzahl der Ein- und Ausgabeoperationen pro Sekunde – kurz IOPS genannt.
Schon damalige SSDs boten aufgrund der fehlenden mechanischen Bauteile und der damit verbundenen physikalischen Einschränkungen eine im Vergleich zu HDDs eine wesentlich höhere Geschwindigkeit bei zufälligen Lese- und Schreiboperationen. Ist eine normale HDD mit 7.200 Umdrehungen auf etwa 80 IOPS bei 100% zufälligen Zugriffen beschränkt, schaffen moderne Enterprise-SSDs mit NVMe-Speicherprotokoll über die PCI Express-Schnittstelle als Einzellaufwerke gut und gerne Werte im sechs-stelligen Bereich. Selbst vergleichsweise günstige und einfache Consumer-SSDs mit SATA-Schnittstelle erreichen bis zu 80.000 IOPS. Selbst die schnellsten Enterprise-Festplatten mit 10.000 oder seltener 15.000 Umdrehungen pro Minute haben das rechnerische Limit bei ca. 125 respektive 175 IOPS und somit im direkten Vergleich nicht den Hauch einer Chance. In einem RAID-Verbund verlieren SSDs durch den Controller-Overhead zwar oft einiges an IOPS, jedoch werden selbst dort je nach Hersteller und RAID-Controller Werte im mittleren vierstelligen Bereich oder sogar darüber hinaus erzielt. Kurz-um: Wer heutzutage eine hohe Performance bei den Speicherzugriffen benötigt, kommt um die SSD-Technologie praktisch nicht herum. Können Workloads mit 6.000 erforderlichen IOPS bereits von einer Hand voll SSDs problemlos bewerkstelligt werden, würde man mit herkömmlichen 2,5“-Enterprise-HDDs mit typischerweise 10.000 upm bereits rund 50 Laufwerke (über zwei 24er-Shelves) benötigen – die weder in der Anschaffung, noch in den laufenden Betriebskosten (Platzbedarf, Stromkosten, etc.) wirtschaftlich sinnvoll erscheinen. Gemessen an der Kenngröße Preis pro IOPS liegen die SSDs somit klar in Führung – positiv gesehen.

Ein Faktor, der jedoch in vielen Projekten und Situationen eine Rolle spielt, ist hingegen das Verhältnis Preis pro Gigabyte. Hier können die HDDs gegenüber den SSDs noch ihre letzte Trumpfkarte ausspielen. Zum Vergleich:
• 1 TB S-ATA HDD-Speicher (7.200 upm) = ca. 28 €
• 1 TB NL-SAS HDD-Speicher (7.200 upm) = ca. 33 €
• 1 TB SAS HDD-Speicher (10.000 upm) =  ca. 165 €
• 1 TB SAS HDD-Speicher (15.000 upm) = ca. 333 €
• 1 TB S-ATA SSD-Speicher (Read-Intensive) = ca. 400 €
• 1 TB SAS SSD-Speicher (Read-Intensive, 1 DWPD) = ab ca. 600 €
• 1 TB SAS SSD-Speicher (Mix-Use, 3 DWPD) = ca. 1.200 €
• 1 TB SAS SSD-Speicher (Write-Intensive, 10+ DWPD) = ca. 2.000 €
 
Wie man schön erkennen kann, kostet auf die Kapazität normiert von einem TeraByte eine SSDs nach wie vor wesentlich mehr als die günstigste Form der HDD. Spätestens jedoch bei den üblichen Enterprise-HDDs mit höheren Drehzahlen und SAS-Schnittstelle wird die Luft für die Magnetfestplatte jedoch zunehmend dünner. Um es an dieser Stelle klar zu sagen: Wer nur auf der Suche nach einem günstigen Datengrab für seine Daten ist, wird womöglich noch ein paar Jahre mit herkömmlichen S-ATA oder NL-SAS-Festplatten gut bedient sein.
 
Um die Effizienz der Datenspeicher weiter zu erhöhen, arbeiten die Hersteller von Speichersystemen seit einigen Jahren daran, mittels verschiedener Technologien die Nettodatenkapazität gegenüber der Bruttokapazität zu steigern. Die Rede ist von der so genannten „Data Reduction“. Zu den beiden wichtigsten Technologien gehören dabei „Daten-Deduplizierung“ und „Daten-Kompression“.
 
Bei der Daten-Deduplizierung werden vereinfacht ausgedrückt identische Speicherblöcke von bestimmter Größe nur einmal physikalisch abgespeichert und jede weitere Kopie mittels einer Referenz-Tabelle und Zeigern blockweise auf das Original verwiesen. Je mehr identische Datenblöcke auf einem Speichersystem vorhanden sind, desto höher ist die dadurch gewonnene Platzersparnis bzw. Steigerung der Kapazität. In der Praxis ergeben sich dabei Werte von etwa 2:1 (50%) für normale Datei-Ablagen bis hin zu 10:1 für beispielsweise virtuelle Desktop-Infrastrukturen. Mittels Daten-Kompression werden zusätzlich die Datenblöcke verlustfrei über vergleichsweise einfache, jedoch schnelle Kompressionsalgorithmen komprimiert, wodurch eine weitere Reduzierung der letztendlich benötigten Kapazität erzielt wird. Die Kompressionsrate richtet sich dabei stark nach der jeweiligen Datentypen.
 
Schließlich gibt es noch zwei unterschiedliche Verarbeitungsweisen, wann die Maßnahmen zur Datenreduzierung greifen. Beim so genannten „Post-Processing“ werden die Daten zuerst vollständig auf das jeweilige Volume geschrieben und anschließend über regelmäßig gestartete Verarbeitungsvorgänge komprimiert bzw. dedupliziert. Eine andere Variante ist die „Inline-Verarbeitung“ bei der die Daten direkt vor dem eigentlich Schreibvorgang temporär im Arbeitsspeicher oder NVRAM vorgehalten und bereits an dieser Stelle komprimiert bzw. dedupliziert werden und nur das Ergebnis des Verarbeitungsvorganges letztendlich physikalisch auf das Laufwerk geschrieben wird.
 
Das ist vor allem im Zusammenhang mit Flash-Speichern von essenzieller Bedeutung, da NAND-Speicher zwar theoretisch unbegrenzt oft gelesen, jedoch nur eine begrenzte Anzahl an Zyklen beschrieben werden können. Ziel ist also, die zu schreibende Datenmenge auf ein Minimum zu beschränken, um die Lebensdauer der Laufwerke zu erhöhen.
 
Die Deduplizierung und Kompression arbeiten dabei unabhängig voneinander und können jeweils einzeln oder in Kombination eingesetzt werden. In Kombination werden dabei abhängig vom jeweiligen Workload insgesamt Einsparungsraten von typischerweise 3:1 bis 5:1 erzielt. Manche Hersteller von Speichersystemen garantieren sogar ein Verhältnis von mindestens 4:1. Das bedeutet, dass ein Speichersystem mit vergleichsweise geringer Brutto-Kapazität von 5 TB am Ende dennoch 20 TB an Daten netto speichern kann und dabei hinsichtlich Performance jedem System mit herkömmlichen Festplatten überlegen ist.
 
Dank der weiterentwickelten Datenreduzierung und dem zunehmenden Preisverfall bei Flash-Speichern sind wir mittlerweile an einem Punkt angelangt, wo sich – immer gemessen an der möglichen Nettokapazität - vergleichsweise einfache Speichersysteme mit herkömmlichen Enterprise-Festplatten (2,5“-Format, SAS-Schnittstelle mit 10.000 upm) und ohne intelligenter Datenreduzierung und All-Flash-Speichersysteme inklusive ausgeklügelter Datenreduzierung (Inline DeDup und Kompression) preislich sehr stark angenähert haben, sodass für den Betrieb von virtualisierten Umgebungen sowie performance-intensiver Business-Applikationen im Jahr 2018 der Fokus zunehmend in Richtung dieser Technologien wandert.
 
Wir vertreiben All-Flash Systeme u.a. von DellEMC und NetApp. Welches Modell genau für Sie das richtige ist, entscheiden wir stets im Einzelfall, wenn wir Ihre Anforderungen kennen.
 
klingt gut, sprechen wir drüber!