ScaleUp ist eine sinnvolle Strategie

Kommentieren Drucken

Langsam kommen wir von den Speichern zu den Netzen. Hier gibt es ein verbindendes Argumentationsglied, nämlich die Strukturdiskussion. Niemand käme heute noch ernsthaft auf den Gedanken, zwei riesige Plattenstapel als die Speicherstrategie eines Unternehmens zu definieren. Aber genau das sollen Unternehmen nach Ansicht der überwiegenden Mehrzahl der Hersteller bei ihrem RZ-Netz machen: sie erklären immer noch zwei (oder 4 bis 8) maximal fette Core-Switches zum Kern eines Netzes.

ScaleUp bedeutet, die Aufgaben immer größeren monolithischen Maschinen zu übertragen. Eigentlich wissen wir schon, dass das nicht der richtige Weg ist. Neben Skalierungsproblemen kommen Kostenexplosion und Management-Probleme auf uns zu.

ScaleOut bedeutet die horizontale Skalierung durch Clustering multipler kleinerer Maschinen.

In einem ScaleOut Design werden viele Elemente, die nach Industriestandards arbeiten, mit einer Clustering-Software zu einem größeren Gebilde zusammengebunden, die für eine vereinheitlichte Systemsicht sorgt. Da kleinere Komponenten nach Industriestandards viel schneller hergestellt werden können als große monolithische Switches, dauert es bei einem solchen Design längst nicht so lange, bis neue Industriestandards auch in Form von Produkten bei den Kunden ankommen.

Bei Speichern ist ScaleOut längst Gang und Gäbe, siehe Bild 1.

Ein Produktbeispiel wäre das Data ONTAP 8 Cluster-Mode-System von NetApp. Das Bild 2 zeigt eine Übersicht.

Durch Architektur und Struktur ergeben sich erhebliche Vorteile im Betrieb, in Bild 3 nur am Beispiel des Global Namespace exemplarisch dargestellt.

Der Global Namespace vereinfacht dann natürlich auch das Multi-Tiering. (siehe Bild 4)

Alle Hersteller, die in dieser Liga spielen, haben ähnliche oder vergleichbare Funktionen.

Spannend ist aber auch, dass die Summe kleinerer Systeme immer erheblich preisgünstiger ist als ein großes System. Nehmen Sie einen beliebigen Netzwerk-Hersteller. Die Kosten für einen ordentlichen10 GbE TOR oder Bladeswitch liegen zwischen 500 und 900 US$ pro Port. An einem Core-Switch kostet der 10 GbE-Port zwischen 2500 und 5000 US$ pro Port. Selbst wenn wir alle möglichen Marktverwerfungen, asiatische Reimporte und Rabatte hinzunehmen, ändert sich an diesem Verhältnis nichts.

Denken Sie jetzt einmal an ein Fat Tree Design, wie es von praktisch allen Netzwerk-Herstellern sogar noch als neue Strategie gepusht wird und die Kosten, die dadurch entstehen, dass es auf der Spine-Ebene große Core-Switches geben muss und man zu den Kosten der Ports an den Leaf-Switches, die die eigentliche Versorgung der Server vornehmen noch die Kosten für die Ports der gesamten Infrastruktur hinzurechnen muss. Wie viele Ports man im Rahmen der Infrastruktur braucht, hängt vom Konzentrationsgrad auf den Leitungen ab. Da dieser individuell verschieden ist, können wir hier nicht weiter rechnen, aber mit dieser Anleitung können Sie das für Ihr Netz ja selbst.

Das Bild 5 ist sozusagen eine „Gegendarstellung“ zu den üblichen Herstellerfolien und zeigt ein ScaleOut-Netz für die leistungsfähigsten HP-Server. Am interessantesten ist das, was Sie nicht sehen: einen Core Switch!

Die Diskussion der Folgekosten durch Platzbedarf der Core-Switches, Stromversorgung und Kühlung unterlassen wir jetzt, aber da ist auch Potential drin.

Es gibt viele Beispiele für ScaleOut-Lösungen im RZ wie Cluster von Web-Servern, geclusterte Anwendungen und Datenbanken sowie geclusterten File- oder Blockspeicher. Sie alle zeigen, dass ScaleOut ein erfolgreiches konstruktives Konzept ist. Alle diese Beispiele verbessern Leistung und Kapazität mit weniger Ressourcen. Der Erfolg einer Cluster-Lösung hängt von ihrer Software-Architektur ab. Dabei stehen folgende Fragen im Vordergrund:

  • Wie nahe kommt das Verhalten des Clusters einem monolithischen System?
  • Wie steht es um die Linearität der Skalierbarkeit und deren Grenzen?
  • Wie verhält sich das geclusterte System bei Fehlern?

Es gibt sogar die These, dass die bisherigen ScaleUp-Lösungen bald an konstruktive Grenzen stoßen werden. Die Core-Switches müssen einerseits immer mehr Aufgaben übernehmen, andererseits wachsen Datenrate und Konzentrationsgrad laufend, das heißt, die Mehraufgaben müssen immer schneller erledigt werden. Irgendwann wird auch noch so parallelisiertes CMOS dabei an Grenzen stoßen. Also muss man auf einen anderen VLSI-Herstellungsprozess zurückgreifen, wie etwas GaAs. Dadurch werden die Core-Switches wahrscheinlich nochmal deutlich schneller, aber bestimmt auch nochmal wesentlich teurer, ganz abgesehen vom Energieverbrauch.

Dieser ScaleUp Ansatz ist eigentlich nur eine Krankheit von Ethernet. Bei anderen Netztypen wie InfiniBand und in gewissem Umfang Fibre Channel hat man schon früh erkannt, dass es so nicht geht und das ScaleOut Konzept angewendet. Eine typische InfiniBand-Umgebung besteht üblicherweise aus einer sehr leichtgewichtigen Switching-Struktur, die folgende Eigenschaften aufweist:

  • Fähigkeit der Arbeit in fast beliebigen Mesh-Topologien
  • Unterstützung paralleler, multipler Wege
  • Fabric- und I/O-Partitionierung
  • Zentrale Discovery
  • Policy Management

In den letzten Jahren hat IEEE aber an Verbesserungen von Ethernet gearbeitet, die dem Ethernet in Form des Converged Enhanced Ethernet InfiniBand-ähnliche Eigenschaften verleihen, wie wir das ja schon oft diskutiert haben.

« Teil 3: DAS ist billiger als SANTeil 5: Standardisierung ist halb so wichtig »


zugeordnete Kategorien: LAN
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.