DAS ist billiger als SAN

Kommentieren Drucken

Über die Notwendigkeit von SANs in virtuellen Umgebungen, die verschiedenen Technologien (iSCSI, FCoE, FC, IB) und die Konvergenzproblematik haben wir alle in den letzten Jahren viel geschrieben. Ca. 33 qm Ausführungen dazu kommen alleine von diesem Autor. Dennoch hält sich das Gerücht, dass ein SAN teuer sei und man besser die Platten direkt an die Server hängen sollte, hartnäckig.

Eine Kostenuntersuchung /6/ mit Speicher-Hardware von Dell brachte eine andere Wahrheit ans Licht. Wenn man bestimmte systemspezifische Einzelheiten ausblendet, ist das Ergebnis übertragbar.

Auf Bild 1 sieht es natürlich danach aus, dass das SAN teurer ist. Die Graphik ist etwas ungewöhnlich gezeichnet, weil die y-Achse die Gigabytes und die x-Achse den durchschnittlichen Preis pro Gigabyte wiedergibt.

Es entspricht aber genau unseren intuitiven Erwartungen, dass (bei einem Kauf an einem Tag) der Preis für das Gigabyte bei DAS gleich bleibt, egal wie viel man kauft. Bei der Untersuchung der Kosten wurde Speicher immer in Blöcken von 146 oder 300 GB gekauft, weil zu diesem Zeitpunkt die 500 und 1000 GB-Platten langsamer waren.

In einem SAN können aber auch die langsameren Platten hoher Kapazität gut eingesetzt werden, weil für die üblichen Anwendungsfälle die im SAN mögliche Parallelverarbeitung greift. Der Nachteil eines SANs liegt natürlich in zunächst hohen Basis-Kosten durch die notwendige Beschaffung der Kommunikationskomponenten, im konkreten Fall wurde FC benutzt.

Das Bild 1 zeigt aber auch (logischerweise), dass die relativen Kosten für ein SAN mit der Gesamtkapazität fallen, weil eben die Basis-Kosten auf immer mehr Laufwerke umgeschlagen werden können.

Dennoch sieht es so aus, als sei das SAN teurer. Dabei wird aber eine wesentliche Fähigkeit des SANs übersehen, nämlich die, den Speicherplatz wesentlich effektiver zu nutzen. Eine Umfrage von TheInfoPro.net bei den Fortune 1000 Unternehmen hat ergeben, dass DAS nur zwischen 30 und 40% ausgenutzt wird. Ein SAN wird aber aufgrund seiner Flexibilität wesentlich höher ausgenutzt, z.B. zu 80%.

Bezogen auf eine 45 TB-Konfiguration mit 1000GB SATA-Drives ergibt sich unter Berücksichtigung der durchschnittlichen Auslastung, siehe Bild 3.

Diese Argumentation ist statisch, wir vergleichen dabei DAS und SAN nur hinsichtlich der Kosten pro GB und das auch nur für eine Klasse Platten, nämlich SATA. Jedes Unternehmen kann aber für seine Anforderungen und Auslastungsgrade einen Schnittpunkt finden, bei dem ein SAN letztlich günstiger als DAS ist.

Vorteile der SANs, die ein DAS nie erreichen wird, sind darüber hinaus:

  • zentralisiertes Management
  • hohe Sicherheit
  • sinnfälliger Verwaltung der Speicher-Ressourcen,
  • einheitliche Darstellung und Implementierung spezieller Storage Services, wie periodische Backups
  • Unterstützung des Betriebs effektiver Benutzungsniveaus der Speicher-Ressourcen.

Ein SAN ist natürlich von sich aus per Definitionem skalierbar und erfüllt damit die in einem früheren Artikel genannte Forderung perfekt.

SSDs beginnen damit, Plattenlaufwerke bei Schlüsselanwendungen zu ersetzen. Würden sie sich auch genauso verhalten wie konventionelle Platten, könnte das dem Betreiber eines privaten RZs eigentlich völlig gleichgültig sein. Es ist aber so, dass der Reiz der neuen Technologie primär in der teilweise enormen Geschwindigkeitssteigerung bei Schreib- und Lesezugriffen liegt. Sind die SSDs direkt in dem Server, wo die Speicherleistung benötigt wird, montiert, kommunizieren sie mit den Prozessoren über den internen Rechnerbus.

Bei der Virtualisierung ist es aber so, dass die Menge der ggf. wandernden virtuellen Maschinen freizügig auf die Menge der Speicherressourcen zugreifen können sollen. Das bedeutet, dass eine Bindung eines Speichersystems an einen oder mehrere Multicore-Prozessoren nicht mehr hinreicht, um diese Anforderung zu bedienen. Vielmehr muss es ein zentralisiertes Speichersystem geben, auf das die Menge der Prozessoren und somit mittelbar die Menge der virtuellen Maschinen systematisch zugreifen kann. Dabei darf es keine Unterschiede geben, die auf die Bindung einer VM an einen spezifischen Prozessor zurückzuführen wäre.

Somit hat das Netz die Rolle des Systembusses für die verteilte virtualisierte Umgebung. Das kann nur dann sinnvoll funktionieren, wenn die Leistung des Netzes harmonisch zu der Leistung der angeschlossenen Komponenten, zu denen auch die neuen SSD-Speicher gehören ,ist, und zwar nicht nur hinsichtlich der real erreichbaren Übertragungsrate, sondern vor allem hinsichtlich der Latenz.

Ein völlig anderes Beispiel: wie Anbieter von Broadcast-Diensten in zukünftigen Marktumfeldern überleben können, hängt nicht nur von ihrer Fähigkeit ab, einzigartige digitale Inhalte zu erstellen, zu aggregieren und eine bekannte Marke daraus zu machen, sondern auch davon, welche strategischen Entscheidungen sie darüber treffen, wie und wo ihre Inhalte gespeichert werden sollen.

Die geforderten geschäftlichen und kreativen Entscheidungen müssen von den Application Service Providern durch eine ganze Anzahl integrierter Funktionen unterstützt werden, die u.a. die Bezahlung von Dienstleistungen, Anzeigengeschäft und Abo-Modelle entsprechend problemlos unterstützen. Kann der Besitzer von Inhalten diese Funktionen nicht ökonomisch und schnell umsetzen, macht das eben früher oder später der Mitbewerb.

Dies kann man auch auf die Anbieter von Cloud-Dienstleistungen in den bekannten unterschiedlichen Formen (IaaS, PaaS, SaaS) oder auf Finanzdienstleister übertragen.

In all diesen Fällen ist die Schnelligkeit von Antwortzeiten existentiell. Unabhängig von den Optimierungs- und Zugriffmöglichkeiten eines Datenbanksystems bedeutet das vor allem, dass die Speicher als solche schnell sein müssen.

Wegen der heute noch relativ hohen Kosten können SSDs aber nur im Rahmen eines Virtualisierten Speichersystems mit automatischen, Regel-basierten Zuordnungen von Volumes auf Medien, wie es von mehreren führenden Herstellern angeboten wird, wirtschaftlich eingesetzt werden.

Literatur
/1/ Przemek Radzikowski, SAN vs DAS A Cost Analysis of Storage in the Enterprise, capitalhead.com, 2010

« Teil 2: Skalierbarkeit ist NebensacheTeil 4: ScaleUp ist eine sinnvolle Strategie »


zugeordnete Kategorien: LAN
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.