Skalierbarkeit ist Nebensache

Kommentieren Drucken

Eigentlich sprechen wir ja ziemlich häufig über „Skalierbarkeit“ oder über das „Skalierungsproblem“. Die Umsetzung der dabei gewonnenen Erkenntnisse ist in der Praxis jedoch sehr unterschiedlich, besonders wenn man auf Speichersysteme blickt.

Es gibt nämlich durchaus die Tendenz, Speicher für einen Mehrjahreszeitraum auf einen Schlag zu beschaffen. Sie resultiert aus der in der Vergangenheit gemachten Erfahrung, dass man einen einmal eingesetzten Plattentyp in Extremfällen schon nach Monaten nicht mehr nachkaufen kann.

Betrachtet man nur einen monolithischen Speicher oder ein unflexibles Array ohne weitere nachgelagerte Intelligenz, kann diese Perspektive durchaus berechtigt sein.

Alle wichtigen Hersteller bieten aber heute hochflexible, modulare und in weitem Bereich skalierbare intelligente Speichersysteme an. Beispiele wären Symmetrix von EMC, Lefthand von HP, XIV von IBM oder FAS von NetApp, um nur einige zu nennen.

Ein Kunde, der einmal begonnen hat, mit einem solchen System zu arbeiten, erwartet mit Recht zweierlei:

  • Möglichkeit der Erweiterung der Grundkapazität auch nach Jahren ohne Änderung bei Nutzung oder Betrieb
  • Nahtlose Integration neuer technologischer Möglichkeiten (z.B. SSD) bei Verfügbarkeit und Bedarf
  • Problemloser gemeinschaftlicher Betrieb auch unterschiedlicher technologischer Generationen von Systemen des Herstellers (aktuell wären die Änderungen bei der neuen XIV-Generation zu nennen)

Alle genannten und alle mit diesen vergleichbaren modularen Speichersysteme unterschieden sich in ihrer spezifischen Arbeitsweise. Allen gemein ist aber die Einführung einer intelligenten Zwischenebene, die man auch als „Speicher-Virtualisierung“ bezeichnen kann. Die wesentliche Funktion der Speicher-Virtualisierung ist die Abstraktion der von den Anwendungs- und Systemprogrammen durchgeführten Speicherzugriffen von ihrer tatsächlichen Implementierung durch eine Speichersystemhierarchie (z.B. in den Stufen SSD, schnelle Platten, langsame billige Platten, Bänder). Darüber hinaus kann es noch weitere Zusatzfunktionen geben, z.B. im weiten Bereich der Ausfallsicherung.

Konzeptionell zieht die Technologie der Speichersysteme damit sozusagen auf das nach, was allgemein hinsichtlich der Server-Virtualisierung als vorteilhaft angesehen wird.

Wirklich spannend ist aber, dass verschiedene Hersteller (in unterschiedlichem Maße) die grundsätzliche Funktionalität der Speicher-Virtualisierung auch schon bei kleinen Einstiegs-Konfigurationen anbieten.

Die in diesem Rahmen erzielte Skalierbarkeit birgt die Möglichkeit zu erheblichen wirtschaftlichen Vorteilen, wenn man von der „Einmalbeschaffung“ Abstand nimmt.

Die Preisentwicklung bei Servern und Netzwerk-Komponenten kann grob durch Moore´s Law abgeschätzt werden, solange die Chips die wesentlichen Bestandteile darstellen. Moore´s Law bezieht sich aber nur auf die auf einer Fläche unterzubringenden Transistorfunktionen. Daher könnten wir es hinsichtlich der Speicher theoretisch nur für SSDs anwenden, die aber nur einen kleinen Teil der Speicherkapazität repräsentieren.

Nach einigem Suchen findet man aber ein anderes genau auf Plattenspeicher zugeschnittenes Gesetz: Komorowski´s Law. Matthew Komorowski hat die Preise der führenden Festplattenhersteller über Jahrzehnte ausgewertet und nicht nur einzeln aufgeschrieben /1/, sondern auch mathematisch zusammengefasst /2/.

In der Bild 1 sieht man, wie sich die Kosten pro Gigabyte zwischen 1980 und 2009 entwickelt haben. Bitte beachten Sie die logarithmische Skala für die Kosten !

Mathematisch ausgedrückt gilt:

Cost = 10 exp. (-0,2502(year-1980) + 6,304)

Mit dieser Formel können Sie schon mal die nächsten Angebote überprüfen. Vereinfacht gesagt bedeutet Komorowskis´s Law die Verdopplung der Speicherkapazität pro Kosteneinheit alle 14 Monate.

Wie kann man diese Erkenntnis jetzt umsetzen?

Ohne in irgendeiner Weise über die Technik zu argumentieren, kann man sagen, dass in einer Verteilung einer in Speicher geplanten Investition ein erhebliches Sparpotential liegt.

Wir stellen uns jetzt einmal vor, ein Unternehmen habe seinen Speicherbedarf für die nächsten fünf Jahre extrapoliert. Das Ergebnis wäre ein Speichersystem, das aktuell unter Ausnutzung aller Rabatte 1 Million Euro kostet. Es ist für dieses Beispiel völlig unerheblich, ob es sich dabei um einen einzigen großen Speichertopf oder um ein modernes, strukturiertes mehrstufiges System handelt.

Schafft ein Unternehmen das Speichersystem jetzt auf einen Schlag an, ist die Million weg.

Im nächsten Bild zeigen wir, was passiert, wenn das Unternehmen nicht den ganzen Speicher auf einmal kauft, sondern fünf Jahre lang jeweils ein Fünftel der beabsichtigten Kapazität. Es geht mir hier um das Grundprinzip, es wären auch andere Teilungen möglich, die aber jetzt nicht weiterführen.

Jedes Jahr wird die Speichermenge, die man kaufen möchte, nach Komorowski´s Law billiger, wobei wir natürlich hier keine Wechselkursschwankungen berücksichtigen können.

Interessant ist jetzt, dass nach 5 Jahren der Speicher so wie geplant zusammengekauft worden ist, aber statt 1.000.000 Euro oder Dollar zusammen nur 628.000 gekostet hat. Wir sparen also einen Ferrari einzig und alleine durch eine Verteilung der Anschaffungsmenge.

Dabei wurde davon ausgegangen, dass das Geld in Form eines Haufens vorhanden ist und einfach der Reihe nach ausgegeben wird. Das ist natürlich extrem vereinfacht und unrealistisch.

Deshalb stellen wir in Bild 3 drei weitere Fälle dazu:

  • das Geld ist vorhanden, der zwischenzeitlich stehengebliebene Betrag wird mit 3% verzinst.
  • das Geld ist nicht vorhanden, sondern muss genau dann, wenn es benötigt wird, aufgenommen werden. Der Kredit kostet jeweils 6% oder 8% und läuft jeweils über 5 Jahre.

Abb.3 Effekt der Verteilung der Anschaffungskosten unter verschiedenen Randbedingungen

Selbst im zweiten Fall bietet die verteilte Beschaffung erhebliche Vorteile und mildert selbst hohe Kreditkosten. Sogar ein kompletter „Speicher auf Pump“ ist bei verteilter Beschaffung noch über 20% billiger als ein direkt aus Eigenmitteln finanziertes Komplettsystem!

Ein solches Ergebnis erzielt man nur bei einem erheblichen Preisverfall der zu beschaffenden Komponenten, also wie z.B. einem Verfall um den Faktor 10 (oder 90%) in 5 Jahren.

Jetzt sind natürlich folgender Sätze unverzichtbar: Die Modellrechnung enthält in die Zukunft extrapolierte Aussagen. Mögliche Abweichungen durch eine erhebliche Inflation der in den Berechnungen benutzten Währungen wurden nicht berücksichtigt. Autor und Herausgeber haften nicht für den tatsächlichen Eintritt der unter Modell-Annahmen getroffenen Ersparnispotentiale.

Aber: was kann bei einer verteilten Beschaffung wirklich passieren? Eine Explosion der Platten-Preise hat es in den Jahren von Komorowki´s Law nicht gegeben. Warum sollte sie angesichts des extremen, sich bei schlechteren Bedingungen tendenziell noch verschärfenden Preiswettbewerbs der Hersteller also grade in den nächsten fünf Jahren kommen?

Schließich gewinnt ein Unternehmen ja auch Flexibilität. Es kann notwendig sein, von den geplanten 100 % Endkapazität in einem Jahr 25 statt 20% und dafür im nächsten nur 15% zu installieren.

Fassen wir zusammen: die einmalige Beschaffung von Speicher für einen Mehrjahreszeitraum ist finanztechnischer Unfug.

An dieser Stelle können wir aber auch sofort die wichtigste Eigenschaft, die an anzuschaffende Komponenten und Konzepte zu stellen ist, nochmals nennen: Skalierbarkeit.

Literatur
/1/ http://ns1758.ca/winch/winchest.html
/2/ M.Komorowski, A history of Storage Cost, 2009, www.mkomo.com/cost-per-gigabyte

« Teil 1: Personalabbau und Cloud Computing sparen KostenTeil 3: DAS ist billiger als SAN »


zugeordnete Kategorien: LAN
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.