Rechenzentrums-Netzwerke: 10 kontra 40 Gigabit, was ist der bessere Weg?

3 Kommentare Drucken

10 Gigabit-Switches sind mittlerweile nichts Besonderes mehr. Es gibt sie in allen Geschmacksrichtungen, die Port-Preise sind soweit gefallen, dass niemand mehr 1 Gigabit vermisst und sie kommen mit allen denkbaren Formen von Kabeln (inklusive Twisted Pair und mittlerweile brauchbaren Transceivern).

Also wäre doch die Zeit reif für einen Masseneinsatz und für 10 Gigabit als Standard-Technologie im Rechenzentrum, oder?

Doch kaum haben wir uns an die 10 Gigabit gewöhnt, kommen schon die 40 Gigabit. 100 sind ja für einen Masseneinsatz noch etwas entfernt. Das generiert natürlich Fragen für jedes RZ-Projekt:

  • Ist die Zeit von 10 Gigabit vorbei, bevor sie überhaupt begonnen hat?
  • Ist 40 Gigabit eine Zukunftstechnik, oder wird es auch bald von 100 Gigabit abgelöst?
  • Ist 40 Gigabit überhaupt schon wirtschaftlich und gibt es genügend Produkte?

Tatsächlich ist die Produktlage nicht so prickelnd. Und die verfügbaren Produkte haben noch sehr hohe Portpreise. Optionen für FCoE fehlen zum Beispiel mit 40 Gigabit noch häufig. Wir sind ohne Frage in der Frühphase des Marktes.

Also weiter abwarten und bei 10 Gig bleiben oder lieber auf die Zukunft setzen oder vielleicht sogar die 40 Gig aussitzen bis 100 Gig Massenware sind?

Was sind überhaupt die Gründe für 40 Gigabit?

Die Standard-Argumente sind:

  • Servertechnik geht in den nächsten Jahren zu 40 Gigabit als Schnittstelle. Und wenn der zentrale Punkt aller Kommunikation im Rechenzentrum 40 Gigabit macht, dann muss dies die Mindest-Datenrate für das gesamte RZ sein.
  • Wer Speicherverkehr über das LAN bringen will, der muss mindestens so viel leisten wie der Fiber Channel. Damit sind 10 Gigabit zu wenig.
  • Die Konsolidierung von 10 Gigabit als Standard-Technologie am Netzwerk-Rand erfordert mehr Bandbreite im Netzwerk-Kern. Zur Vermeidung von Überbuchungen sind höhere Bandbreiten unvermeidbar.
  • Soll in Virtualisierungsumgebungen jede virtuelle Maschine mindestens 1 Gigabit Bandbreite erhalten, so wird das mit 10 Gigabit zunehmend enger.
  • Es gibt einen Trend zu Rackarchitekturen (um Intels Bezeichnung aufzugreifen). Dabei sind CPUs, RAM und Speicher getrennt und werden je nach Bedarf dynamisch gemeinsam genutzt. Dies erfordert in Zukunft zumindest in den Schränken eine neue Form von Kommunikations-Lösung, die mehr an dem Bedarf von RAM als an dem Bedarf von Speicher orientiert ist.

Aber natürlich gibt es auch Gegenargumente:

  • Kapazität kann auch durch Parallelisierung und Maschen in einem 10 Gigabit-Verbund entstehen. Dazu sind Technologien wie Shortest Path Bridging ja entworfen worden.
  • Die absolute Mehrzahl der eingesetzten Server sind in der mittleren Leistungsklasse (E5 aus Intel Sicht). Diese sind mit 2x 10 Gigabit gut und gleichzeitig redundant versorgt.
  • Auch wenn Fiber Channel auf 16 und in Zukunft auf höhere Gigabit-Raten geht, bedeutet das nicht, dass diese von den Plattensystemen überhaupt benötigt werden. Der Bedarf geht immer von den real installierten Systemen aus. Und eine Anbindung von 2x 10 Gigabit ist für die meisten Plattensysteme immer noch ein Overkill. Es bedürfte einer massiven Parallelisierung SSDs zusammen mit extrem leistungsstarken CPUs/ASICs um diese Bandbreite kontinuierlich zu füllen. Natürlich gibt es Speichersysteme, die das können, aber diese sind nicht dem Massenmarkt zuzuordnen. Es stellt sich auch die Frage, ob Anwendungen mit derartig hohen Speicherbandbreiten überhaupt mit einem zentralen Speicher im Netzwerk arbeiten sollten. Das ist mehr das typische Szenario für eine geschlossene Lösung in einem Schrank.
  • Die realen Lasten in unseren Netzwerken sind weiterhin sehr niedrig.

Pro- und Kontra-Argumente haben valide Elemente. Also wie sollte sich ein Unternehmen entscheiden? Speziell die Frage, ob 40 Gigabit nicht eine reine Übergangstechnik und somit kaum eine gute Investition ist, sollte ernsthaft angesprochen werden. In jedem Fall sollt eine Kriterienliste erarbeitet werden, um die Anforderungen an das Netzwerk im Rechenzentrum klar zu bestimmen. Dies ist umso mehr erforderlich als viele der neuen 40 Gigabit-Produkte nicht alle Kriterien erfüllen. Zu den häufig übersehenen Kriterien gehören FCoE-Fähigkeit, unterstützte Medien, Stromverbrauch von Transceivern, Bitfehlerraten, real nutzbare Längen (zum Beispiel für FCoE unter Berücksichtigung des Empfänger-gesteuerten Credit-Mechanismus und der beim Empfänger vorhandenen Puffer-Größe), Implementierung von SPB/TRILL, Unterstützung von DCB.

Wir analysieren dieses Thema und diskutieren die Ergebnisse mit Ihnen. Bitte beachten Sie:

Sie fanden diesen Beitrag interessant? Sie können

3 Kommentare zu "Rechenzentrums-Netzwerke: 10 kontra 40 Gigabit, was ist der bessere Weg?":

  1. Rainer S. schreibt:

    Ich finde es gut das der 40G Hype auch mal kritisch beleuchtet wird.
    In der Praxis nutzen selbst ESX Aber kaum mehr als 2 bis 3 GBit, vom vmotion mal abgesehen.
    Wir haben unser neues RZ auf 10 G für die nächsten Jahre ausgelegt, und an entscheidenden Stellen natürlich MPO und Singlemode Verkabelungen für ein Upgrade vorgesehen.
    Ich bin überzeugt das der Standard RZ Betrieb, wenn man nicht auf FCoE setzt, die nächsten Jahre auf 40G verzichten kann. Danach wird 100G, hoffentlich per Singlemode, im Backbone Bereich sicher nötig. Man darf auch nicht vergessen das Firewall, Loadbalancer etc. momentan mit 40G preislich kaum zu integrieren sind.

  2. Jürgen SuppanDr Jurgen Suppan schreibt:

    So sehr ich die Argumente pro 40 Gig nachvollziehen kann so sehr bin ich auch vorsichtig. In der Vergangenheit hat es immer mehrere Chipgenerationen gebraucht, um eine neue Technik zu stabilisieren und wirtschaftlich umzusetzen. 10 GBaseT hat 4 Generationen gebraucht, um den Stromverbrauch unter 2W zu senken (ausgehend von 10 bis 12W). Und bei den Servern bin ich mir unsicher, ob sich eine Vorinvestition in 40 Gig wirklich Zukunfts-orientiert ist. Intel wird seine Rackarchitekturen mit einer Trennung von CPU und Speicher weiterentwickeln. Auch wenn dies im Moment ein HPC-Thema ist, wird sich hier eventuell in den nächsten 3 bis 5 Jahren ein neues Kommunikations-Layer direkt am Server ergeben. Es könnte also der falsche Weg sein zu früh auf 40 Gig zu setzen.

  3. S. Berners schreibt:

    Die Diskussion ist richtig, in der Betrachtung fehlen mir allerdings noch zwei Aspekte:
    1. Derzeit sind 40g doch zumeist nur einfach gebündelte 4x10g. Eine Session kann somit nicht mehr als 10g nutzen. Es ist also auch eine Frage, ob es im betrachteten RZ Anwendungen und Systeme gibt, die einzelne Sessions von mehr als10g erzeugen / verarbeiten können.
    2. Auch bei 10g kann die Nutzung von MPO und dadurch die Reduizierung von LWL Patchfeldern je nach Gestell-Layout Vorteile bringen.

Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*

.