SSDs: das Ende der klassischen Festplatten

Kommentieren Drucken

Aktuell finden in der wettbewerbsorientierten Speicher-Industrie gravierende Änderungen statt, die letztlich zu einem Ende von Festplatten, wie wir sie kennen, führen werden. Schon vor einigen Jahren habe ich mehrfach auf diese Möglichkeit hingewiesen, die damals nur vermuteten Trends lassen sich jetzt aber mit beeindruckenden Zahlen belegen. Mit der 3D-SSD-Technik steht im wahrsten Sinne des Wortes eine neue Dimension zur Verfügung. Insgesamt ergeben sich dadurch auch Implikationen auf die Gesamtarchitektur von Rechenzentren und ganz besonders auf die notwendige Leistung von Kommunikationssystemen, denn die SSD ist nicht mehr nur ein relativ kleiner Teil einer virtualisierten Speicherlösung.

SSDs aus NAND-Flash-Memory-Chips nehmen den HDDs immer mehr Marktanteile ab. Glaubt man dem Marktbeobachter iSuppli, werden die Auslieferungen für HDDs, die für den Einsatz in PCs gedacht sind, in 2013 um 8% auf lediglich 436,9 Millionen Einheiten ab. Für den gleichen Zeitraum erwartet man einen Zuwachs für SSDs um 112 % auf 68,9 Millionen Einheiten bis zum Ende dieses Jahres. Da weder die neuen Prozessoren von Intel noch Windows 8 es geschafft haben, den Verkauf von PCs wieder zu beleben, bleiben besonders die 2,5″-HDDs für Notebooks liegen.

IBM hat eine erweiterte Perspektive und erfasst auch die Lösungen für Unternehmen, Organisationen und Provider. Die Tabelle in Bild 1 zeigt die Entwicklung der fünf Jahre von 2008 bis 2012 hinsichtlich der Auslieferungen für HDDs und NANDs. HDDs werden dabei in Laufwerken gemessen und die NAND-Units sind 2-GB-Chips.

Dabei fallen folgende Dinge auf:

  • Die HDDs hatten ihren Höhepunkt in 2010, danach ging es bergab. So ist es zu erklären, dass die durchschnittliche Wachstumsrate über den Gesamtzeitraum nur 1,7% betrug.
  • Auslieferungen von NAND-Devices sind in der Zeit durch die Decke gegangen und hatten so eine durchschnittliche Wachstumsrate von 74,8% im Vergleichszeitraum.
  • Es gab kein Umsatzwachstum für HDDs, die Steigerung in 2012 ist auf kurzfristige Engpässe durch eine Flut in Thailand zu erklären.
  • Das Umsatzwachstum für SSDs betrug im Vergleichszeitraum beachtliche 21,8 %
  • Die Kosten pro GB gemessen in $/GB für HDDs haben mit einer durchschnittlichen Rate von -22,1% abgenommen.
  • Die Kosten pro GB für SSDs haben mit einer durchschnittlichen Rate von -30,4% abgenommen.

Das ist eine dramatische Annäherung! War 2008 der SSD-Speicher noch rund um den Faktor 14 teurer als HDD-Speicher, ist dies 2012 auf einen Faktor 5 bis 6 gesunken. Insgesamt war aber der SSD-Speicher 2012 nur noch rund dreimal so teuer wie der HDD-Speicher in 2008.

Dabei vergleichen wir nur das GB als quantitative Datenmenge, nicht aber hinsichtlich der Qualität, bei der der SSD-Speicher extrem weit vorne liegt.

Man braucht jetzt kein großer Mathematiker zu sein, um festzustellen, dass der SSD-Speicher bei linearer Extrapolation in diesem Jahr (2014) das Preisniveau der HDDs eingeholt haben wird. Der Verbraucher wird davon aber vermutlich erst mit der üblichen Verzögerung von 12 bis 18 Monaten profitieren können.

Der Preisverfall bei den SSDs führt dazu, dass sie sowohl in Geräten von Endverbrauchern als auch bei Unternehmenslösungen in erheblich stärkerem Maße eingesetzt werden. Aber nicht nur die Anzahl der Einheiten, sondern auch ihre durchschnittliche Kapazität werden erheblich zulegen. Das zeigen die Bilder 3 und 4.



Die führenden Lieferanten werden Intel (INTC), SanDisk (SNDK), Fusion I/O (FIO) und Google (GOOG) sein. Dabei kann man noch erwähnen, dass Fusion I/O bisher hauptsächlich an Facebook liefert.

Für den Consumer-Bereich spielen in Zukunft aber auch hybride Laufwerke noch eine Rolle. Die ursprünglich von Seagate vor einigen Jahren eingeführten SSHDs (Solid State Hybrid Drive) werden mittlerweile von praktisch allen HDD-Lieferanten angeboten. Diese Laufwerke z.B. von Avere Systems oder Nimble (NMBL) können Flash-Performance zum Preis von Hard Disks liefern und versuchen einen sinnvollen Ausgleich zwischen der SSD-Leistung und der Verfügbarkeit eines Speichers mit hoher Kapazität herzustellen. Es gibt dafür zwei Architekturen, nämlich „Dual Drive“ als Kombination von HDD und SSD mit einem Chip oder Southbridge mit Software für das Caching und „Integrated Hybrid“ als Kombination von HDD und Flash mit HDD SoC, mit Caching-Software.

Im April 2013 führte Western Digital (WD) die 2,5″-WD-Black-SSHD-Produkte einschließlich einer nur 5 mm hohen SSHD mit 500 GB Speicherkapazität und NAND-Flash-Größen von 8, 16 oder 24 GB ein (siehe Bild 5).

Seagate (STX) stellt ein ähnliches Modul her. Die sind natürlich ideal für portable Geräte. Die zukünftig zu erwartende Verteilung von Technologien über die Geräte zeigt Bild 6.

Der NAND-Markt wird von Samsung (OTC:SSNLF) mit einem Anteil von 38% angeführt, danach kommen Toshiba (28%), Micron Technologies (MU, 14%) und SK Hynix mit 12% basierend auf einem Gesamtumsatz von 19 Mrd. in 2012. Ungefähr 12% der NAND-Chips werden für SSDs benutzt, die größten Anteile der Produktion gehen direkt in Chips für mobile Anwendungen wie Smartphones oder Tablets.

Die interessanteste Entwicklung im NAND-Bereich ist die kommende Transition von planaren NAND-Strukturen zu 3D-NANDs. Es gibt durchaus ernst zu nehmende Hinweise darauf, dass die planare Technologie bei Speichern nicht länger nach Moore´s Law skalieren wird. Samsung hat eine eigene 3D-V-NAND-Technologie entwickelt, die bei der Herstellung Produktivitätsvorteile von einem Faktor größer 2 gegenüber dem planaren 2D-NAND-Prozess in 20-nm-Technik ergibt. Ein 3D-Zell-Array besteht aus 24 Schichten aus zylindrischen 3D-„Charge Trap Flash“-Zell-Strukturen. Mit einer entsprechenden Technologie beim Herstellungsprozess werden die Schichten vertikal miteinander verbunden. Zunächst sind die einzelnen übereinander liegenden Schichten vom Design her „normale“, aber sehr flache, 2D-NAND-Strukturen. Mit Bild 7 kann man grundsätzlich verstehen, wie es funktioniert, eine Verbindung zwischen den einzelnen Ebenen herzustellen:

  • Auf einem Substrat und einer Silizium-Schicht werden abwechselnd Oxid- und Nitrat-Schichten erzeugt.
  • Durch die Schichten werden Löcher geätzt, die
  • zur Isolation an ihren Wänden polymerisiert werden und schließlich
  • mit Oxid gefüllt werden. Danach werden
  • Schlitze geätzt. Die Struktur in der Mitte ist dreidimensional und zwischen den aufeinander liegenden Elementen gibt es eine Verbindung, die durch die üblichen Halbleiter-Transitionen aktiviert werden kann. Dazu braucht man nur noch
  • das Nitrat zu entfernen.

Samsung hat im August 2013 eine 3D-V-NAND-SSD mit 960 GB vorgestellt, die bei sequentiellen Zugriffen und Random Write 20% schneller und beim Stromverbrauch 40% sparsamer ist als das 2D-Vorgängermodell SM843-T.

Der 3D-V-NAND-Prozess löst das Problem, über die „10-nm-Hürde“ zu kommen. Ausgehend vom aktuellen 19- oder 20-nm-Prozess würden die Herstellungsprozesse bei einer weiteren Verkleinerung sehr teuer werden, vor allem wegen der notwendigen Präzision der Lithographie-Systeme. Man erwartet, dass auch Toshiba und Micron Technologies irgendwann in diesem oder nächsten Jahr mit der Produktion von 3D-SSDs beginnen können.

Halten wir also fest: Die Umstellung des Herstellungsprozesses von 2D auf 3D-SSDs hat folgende Konsequenzen:

  • weitere Kombination von Kapazitätssteigerung und Kostensenkung mindestens nach Moore’s Law, mit hoher Wahrscheinlichkeit bis zu einer heute noch nicht absehbaren technologischen Sättigung aber noch schneller,
  • Geschwindigkeitsvorteil mindestens 20% gegenüber 2D-SSDs,
  • Energie-Effizienz gegenüber 2D-SSDs mindestens um 40% verbessert.

Die Vorzüge einer 3D-Technik in integrierten Schaltungen kann man leicht auch ohne Spezialwissen nachvollziehen, wenn man weiß, dass für Geschwindigkeit und Leistungsaufnahme zwei Dinge wesentlich sind: die Schaltgeschwindigkeit und die für einen Schaltvorgang benötigte Leistung eines Schaltkreises sowie die Weglängen innerhalb einer integrierten Struktur. Mit der Verkleinerung eines Herstellungsprozesses werden die Wege kürzer, aber gleichzeitig auch schmaler, womit ihr Widerstand steigt. Man bemüht sich normalerweise darum, dass sich beide Effekte mindestens kompensieren.

Wir stellen uns jetzt einen einfachen 64-Bit-Speicher als Schachbrett vor. Das Schachbrett sei 30 x 30 cm und 1 cm hoch. Jetzt möchte ich die Kapazität erhöhen, und zwar um den Faktor 16. Dazu lege ich 16 Schachbretter in 4 Reihen zu je 4 Brettern nebeneinander. Die größte Distanz zwischen zwei Speicherelementen auf einem einzelnen Schachbrett beträgt rund 42 cm. Bei der quadratischen Struktur mit 16 Brettern ist sie aber viermal so lang, also rund 168 cm. Da die Geschwindigkeit elektrischer Signale in Festkörpern immer ein konstanter Bruchteil der Lichtgeschwindigkeit ist, würde ein Signal auch viermal so lange brauchen und ohne weitere Erklärung an dieser Stelle rund das Sechzehnfache an Verlustleistung erzeugen.

Alternativ legen wir jetzt die Schachbretter einfach übereinander. Hinsichtlich der ersten zwei Dimensionen bleibt es bei den üblichen 42 cm, bei Durchquerung aller drei Dimensionen ergibt sich rund 42,75 cm, also keine 2% mehr. Also konnte durch die 3D-Technik gegenüber einer rein zweidimensionalen Entwicklung die Kapazität um den Faktor 16 gesteigert werden, ohne die Werte für Weglänge oder Verlustleistung erheblich zu steigern. Tatsächliche Werte kann man nur dann angeben, wenn man mehr Voraussetzungen über die Gesamtverteilung der zu durchlaufenden Leitungslängen macht, was wir hier aber unterlassen, weil das Prinzip klar geworden sein sollte.

Konsequenzen

Bei den Konsequenzen möchte ich zwischen Endgeräten und RZ-Infrastruktur unterscheiden.

Eine aktuelle „Conventional Wisdom“ ist ja, dass moderne mobile Endgeräte recht leistungsschwach sind und kaum Speicher haben, so dass sie nur via einer Cloud-Anbindung überleben können. Das mag ja für die aktuelle Gerätegeneration teilweise stimmen, perspektivisch ist es aber blühender Blödsinn:

  • Die neue SoC-Generation z.B. von Intel oder Apple (A7, A8) hat mindestens Pentium-Leistung angereichert um erheblich verbesserte Grafik-Koprozessoren.
  • Die Entwicklung eines 64-Bit-Betriebssystems wie iOS von Apple wäre völliger Quatsch, wenn die Geräte perspektivisch nicht erheblich in der Leistung zulegen würden. iOS ist ein plattformübergreifendes Betriebssystem. Es läuft zwar auf einem iPhone 5S fast ohne Speicher, kann aber nach oben deutlich über die aktuelle Gerätegeneration hinauswachsen. Die Möglichkeit, auf allen mobilen und sonstigen Geräten das gleiche Betriebssystem mit gleicher Bedienlogik zu haben, ist wesentlicher Bestandteil der Philosophie und des Wertschöpfungsuniversums des Herstellers sowie ein Alleinstellungsmerkmal gegen Android mit seinen täglich neu erscheinenden Versionen. iOS freut sich also mit jedem Zyklus auf erheblich mehr (SSD)-Speicher.
  • Virtualisierung auf mobilen Endgeräten wird in Zukunft ein wesentlicher Faktor für die sichere Integration dieser Geräte in die IT eines Unternehmens. Darüber schreibe ich ausführlich an anderer Stelle. Insgesamt benötigt man aber auch dafür mehr Speicher.

Der aktuelle Schlankheitswahn bei Speichern in Mobilgeräten kommt zunächst daher, dass man Smartphones und Tablets ohne bewegliche Teile konstruieren wollte. SSD-Speicher war vordergründig zu teuer. Außerdem wollte man Milliarden Benutzern einreden, dass sie unbedingt Cloud-Leistung benötigen.

Das Blatt wird sich wenden. Es wird in absehbarer Zeit deutlich mehr Speicher in Endgeräten geben und in diesem Zuge könnte es durchaus sein, dass die Karten hinsichtlich der Cloud-Abhängigkeit neu gemischt werden.

Unternehmen und Organisationen benutzen in ihren privaten Rechenzentren üblicherweise virtuelle Speichersysteme, wie sie von allen führenden Herstellern angeboten werden. Ist ein solches System einmal gewählt, muss es auch sehr lange betrieben werden, weil die Umstellung auf ein anderes System meist sehr komplex oder ganz unmöglich ist. Innerhalb eines virtuellen Speichersystems gibt es verschiedene Technologiestufen von SSDs bis hin zu Bandlaufwerken, die im Rahmen logischer Volumes und entsprechender Qualitätsmaße angesprochen werden können. Die zunehmende Verfügbarkeit preiswerter SSD-Speicher wird einfach dazu führen, dass der relative Anteil der SSDs in einer Installation schlicht steigt, wodurch Kapazität, Leistung und Reaktionszeit deutlich verbessert werden können. Man hat ausgerechnet, dass der vollständige Austausch aller bestehenden HDDs in Unternehmen durch NAND-SSDs rund 115 Mrd. US$ kosten würde. Das verlängert das Leben der HDDs ein bischen, große Neuanschaffungen wird es aber kaum mehr geben, es sei denn im Rahmen eines Sonderangebotes von der Resterampe.

Hinsichtlich der Kommunikation mit den Speichersystemen ist festzuhalten, dass die heute noch vielfach übliche Bündelung vieler Leitungen geringer Kapazität systematisch terminiert werden muss. In Zukunft werden zunehmend Leitungen mit hohem Konzentrationsgrad und Geschwindigkeiten von 100 Gbps Anwendung finden müssen, weil sonst Übertragungstechnik und Verarbeitungstechnik in keinster Weise mehr harmonisch zueinander sind. Die Bedeutung einer Harmonie zwischen Systemen wird im Enterprise-Bereich in völligem Gegensatz zur Situation bei Endgeräten häufig unterschätzt. Der Hersteller eines Endgerätes käme nie und nimmer auf die Idee, grob unabgestimmte Komponenten in einem Gerät zu mischen. RZ-Betreiber sind hier in einem oft nicht mehr nachvollziehbaren Maße großzügiger, mischen Komponenten aus unterschiedlichen Jahrhunderten und wundern sich dann, dass es nicht performt. Nach wie vor etwas unklar ist die Situation bei den Übertragungsprotokollen zu Speichersystemen. Fibre Channel ist nicht kleinzukriegen und Infiniband gewinnt zunehmend an Boden. Aber das ist kein Problem der SSDs und soll hier auch nicht weiter diskutiert werden.

zugeordnete Kategorien: LAN
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.