RZ-Netzwerke: 20% preiswerter, mehr Performance, höhere Verfügbarkeit

Kommentieren Drucken

Betrachten wir die Entwicklung der letzten Monate im Bereich der Netzwerke im Rechenzentrum, dann ist es mehr als erstaunlich, dass nicht eine intensive Diskussion über Sinn und Unsinn der neuen Merkmale und Lösungen stattfindet.

Immerhin sind die erreichbaren Vorteile der neuen Lösungen mehr als beeindruckend:

  • Der Wechsel von 3-stufigen hin zu 2-stufigen Netzwerken geht einher mit der Ablösung der teuren zentralen Switchsysteme durch mehrere kleinere Switches. In Kombination mit den aktuellen Entwicklungen im Chip-Markt führt dies zu einem Preiswettbewerb speziell im Bereich der 10 Gigabit-Switches, der auch deutlich größere Vorteile als 20% mit sich bringen kann.
  • Der Einsatz von TRILL oder SPB führt zu parallelen und vor allem gleich langen Wegen. Neben der besseren und damit wirtschaftlicheren Auslastung der Infrastruktur führt dies zu geringeren Schwankungen in der Latenz, eine Forderung, die speziell aus dem Server- und Applikations-Bereich kommt.
  • Die Nutzung paralleler Wege und die bewusste Gestaltung dieser Eigenschaft schafft beliebige Bandbreite, die vor allem genau zu der zunehmenden Konzentration virtueller Lösungen in neuen Multi-Core-Servern passt. Hier weisen wir speziell auf die neuen Ankündigen aus dem Hause Intel zu Multi-Core-Systemen hin.
  • TRILL oder SPB erhöhen die umsetzbare Verfügbarkeit auf Layer-2 deutlich. Im Endeffekt reduziert sich die Frage der Verfügbarkeit immer mehr auf die Frage der Endknotenverfügbarkeit.

Eigentlich müsste diese Entwicklung zu einer Aufbruchsstimmung hin zu den neuen Netzwerk-Architekturen unter den Kunden führen (und in der Tat gibt es auch zahlreiche Projekte in diesem Umfeld). Trotzdem schrecken nach wie vor auch viele Kunden vor der Nutzung dieser Technik zurück. Das hat verschiedene Gründe:

  • TRILL und SPB stehen nach wie vor in einem intensiven Wettbewerb. Zwar ist TRILL die heute besser im Markt eingeführte Lösung, doch langfristig kann man durch die höhere Kompatibilität mit anderen IEEE-Verfahren Vorteile auf der SPB-Seite sehen. Dieser Konflikt wirkt verunsichernd, insbesondere da die kritischen Punkte in den extremen Verfahrensdetails zu sehen sind (und eine falsche und inkompetente Berichterstattung in der Presse in den letzten Monaten hat auch nicht geholfen).
  • Mit den neuen Produkten und Verfahren ändern sich wichtige Grundparameter des Netzwerk-Designs. Bisher haben wir Breiten-Ethernet-Technologie, die nie auf den speziellen Einsatz im Rechenzentrum ausgelegt war, irgendwie an das RZ angepasst. Aber mit immer leistungsstärkeren Servern und Speicher-Systemen funktioniert das nicht mehr. Wir brauchen Netzwerke, die dem Bedarf des RZ entsprechen. Im Kern muss ein Wechsel vom traditionellen Ethernet hin zu einer Systembus-Verlängerung stattfinden. Hier sind genau die Punkte zu finden, bei denen die mangelnde öffentliche Diskussion überrascht. Systembusse sind keine Strukturen, die im großen Stil zwischenpuffern. Daten sollen mehr in Echtzeit fließen. Übertragen auf den Switch und den darin enthaltenen ASIC bedeutet das, dass wir in Zukunft im RZ Produkte haben, die mehr Flussorientiert sind. Dafür wird die Fähigkeit zur Pufferung, so wie wir das gewohnt sind, in einigen Produkten durchaus in Frage gestellt. Dr. Kauffels hat das in seinem Artikel über die neuen ASICs gut erklärt. Dies führt dazu, dass Flusskontrolle und die Vermeidung von Staus deutlich wichtiger werden als bisher. Der Puffer pro Port ist einfach zu klein. Verfahren wie DCB werden damit unverzichtbar, auch wenn sie bei Microbursts unwirksam sind.
  • Die Hersteller kombinieren die aktuelle Entwicklung mit der Einführung des Fabric-Konzepts. Dabei verhalten sich mehrere Switches im RZ wie ein großes Switch-System. Brocade und Cisco waren die ersten, die Produkte aus diesem Bereich hatten. Immer noch wartet der Markt auf die schon lange angekündigte QFabric-Lösung von Juniper. Die Nachteile dieser Entwicklung liegen auf der Hand. Produkt-Kompatibilität zwischen verschiedenen Herstellern geht verloren (ein Schelm wer böses dabei denkt). Tatsächlich fahren viele Kunden auf die scheinbaren Vorteile im Betrieb ab. ComConsult Research hat schon mehrfach seine Zweifel an dieser Entwicklung zum Ausdruck gebracht. Standard-Konformität ist ein hohes und wichtiges Langfrist-Gut, das nicht leichtfertig aufgegeben werden sollte.
  • Aus dem Speicherbereich kommt die Explosion von iSCSI und NFS. Statt der lange erwarteten Umsetzung von FCoE spielt hier eher die Musik. Das ändert allerdings an den Anforderungen an das Netzwerk wenig. Das Netzwerk muss lernen mit sehr umfangreichen Datenströmen einer Top-Priorität umzugehen. Das ist ein elementarer und sehr ernst zu nehmender Schwenk. Bisher hatten die meisten Datenströme hoher Priorität nur ein sehr geringes Volumen. Erstaunlich, dass das Niemand zur Kenntnis nimmt. Damit kann der Speicherverkehr durchaus das Netzwerk monopolisieren, speziell bei unzureichender Auslegung.
    Betrachtet man diese Ausführungen müsste die Diskussion im Markt toben. Gehen wir den richtigen Weg? Wollen wir dieses Nachbauen eines Systembusses mit der Flussorientierung und einem Abbau der Puffer? Wollen wir Fabrics und die Aufgabe der Standards? Wollen wir TRILL oder SPB? Wie unverzichtbar wird DCB? Welche Auswirkungen werden umfangreiche Datenströme aus dem Speicher-Bereich für unsere Netzwerke haben?
zugeordnete Kategorien: LAN
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.