Standardisierung ist halb so wichtig

Kommentieren Drucken

Die konventionelle vielstufige Strukturierung eines RZ-Netzes ist ein Auslaufmodell. Eine nahe liegende Möglichkeit ist die Schaffung so genannte Fat Trees oder die Nutzung eines Virtual Chassis. Beide Konzepte haben aber den schwerwiegenden Nachteil, dass sie auf teuren fetten Core-Switches beruhen. Genau das ist es aber, was uns die viele Hersteller heute immer noch als „neue“ Strategie verkaufen möchten.

Alle Data Center Fabrics nach diesen Strategien haben mehr oder minder die gleiche zweistufige Struktur: eine Stufe besteht aus möglichst preiswerten Switches für den Anschluss der Endgeräte. Die zweite Stufe besteht dann aus Core-Switches. Beide Stufen zusammen bilden einen latenzarmen Fat Tree, der auch manchmal als Clos-Netz bezeichnet wird. Machen Sie sich mal den Spaß und gehen auf die verschiedenen Websites der Hersteller. Dann sehen Sie sogar weitestgehend identische Fundamentaldiagramme. Eine Gruppe der Hersteller verwendet in der Leaf-Stufe sogar die gleichen Trident + – Chips von Broadcom, eine andere Gruppe benutzt selbstentwickelte Chips. Das ist auch nicht weiter zu kritisieren, denn der Trident+ Chipset ist sehr gut. Die Hersteller haben nur das (selbstgemachte) Riesenproblem, dass sie sich auf dieser Ebene nicht weiter von den anderen Herstellern unterschieden.

Also müssen sie sich hinsichtlich der Differenzierung an einer anderen Stelle austoben und da bleibt nur die Spine-Ebene mit den Core Switches. Das ist aber auch wieder dumm für die Hersteller, denn die Aufgabe der Spine-Ebene ist so klar definiert, dass es hier an und für sich auch nur wenige Möglichkeiten gibt.

Aber, aktuell haben sie dann doch etwas gefunden: das Virtual Chassis-Konzept. Eine Spine-Ebene wird ja nicht mit ein oder zwei Core-Switches auskommen wie auf den Bildern, sondern eine größere Anzahl von Core Switches sozusagen zu einem sinnvollen Ganzen zusammenschalten.

Also hat jetzt jeder Hersteller ein eigenes Virtual Chassis Konzept auf dieser Ebene. Darin haben sie Übung, denn das gibt es bei verschiedenen Herstellern schon lange. Mit diesem Konzept wollen sie die Kunden an sich binden und ignorieren dabei vollkommen, dass man die notwendigen Funktionen auch auf standardisierter Basis mit PLSB, TRILL oder M-LAG (Multi-Chassis Link Aggregation) machen könnte. Sie gehen sogar so weit, dass sie auf Nachfrage entweder völligen Quatsch erzählen („Fabric Path ist die Trill-Realisierung von Cisco“ O-Ton Cisco Referent auf dem Netzwerk-Redesign-Forum 2011), die Realisierung von Standards diffus in die Zukunft verlegen (in Art des US-Notenbankchefs Bernanke: „Growth should pick up soon“, Rede vom 22.6.2011) oder einfach auf mehrfaches Nachsetzen ungerne zugeben, dass es zwar irgendwann die Realisierung von Standards geben könnte, der Kunde dann aber mit deutlichen Leistungseinbußen gegenüber dem proprietären Produkt zu leben hätte.

Persönlich finde ich das eine Unverschämtheit, denn verschiedene der einschlägigen Hersteller liefern für den Provider-Bereich durch und durch standardisierte und auch mit Höchstleistung kooperationsfähige Systeme. Etwas anderes würden ihnen die Provider nämlich vor die Füße werfen. Aber mit den Corporate-Kunden kann man es ja machen (oder wenigstens versuchen).

An dieser Stelle möchte ich den Leser daran erinnern, dass es in der Vergangenheit schon zwei fulminante Abflüge gab, mit denen niemand gerechnet hätte: (das alte) 3Com hatte auf einmal keine Lust mehr, Switches zu bauen und hat sich freiwillig verabschiedet und Nortel Networks hat die größte Pleite in der Geschichte der Kommunikations-Ausrüster hingelegt. In beiden Fällen waren die Kunden die Dummen.

Der Autor beobachtet den finanziellen Hintergrund von Netzwerk-Herstellern schon seit mindestens 20 Jahren. Es geht dabei primär um die Frage, ob ein Kunde bei einer Bindung an einen Hersteller damit rechnen muss, dass dieser im Nebel verschwindet. Die aktuelle Situation der Hersteller ist alles andere als rosig. Aufgrund des Konkurrenzdrucks werden die Margen immer kleiner und sie haben einfach erhebliche Probleme, sich darauf einzustellen.

Abgesehen davon, dass es schon die ersten Entlassungen gab, sind die möglichen Auswirkungen einer Ausweitung der Finanzkrise nicht wirklich abzuschätzen. Besonders kleinere Hersteller könnten unter die Räder kommen. Sie würden dann wahrscheinlich wegen bestehender Patente aufgekauft. Was das aber dann für den Kunden bedeutet, ist sehr fraglich.

Ein weiteres Problem für alle Hersteller kann man namentlich benennen: es heißt Huawei. Bei den Provider-Systemen konnte sich der chinesische Konzern weltweit bereits auf Platz 2 vorarbeiten, die anderen Netze sind sicher auch bald „dran“. Aktuell greift man aber erst mal Apple mit Smartphones zu einem Drittel des iPhone-Preises an. Huawei ist im Besitz seiner Mitarbeiter, die Aktien unterliegen aber strengen Auflagen.

Huawei konnte im Provider-Bereich nur deshalb so wirkungsvoll punkten, weil alle Produkte streng nach Standards aufgebaut sind. Es gibt keine proprietären Sonderlocken. Man geht lieber über den Preis als Differenzierungsmerkmal.

Was bedeutet das für die unternehmenseigenen RZ-Netze? Ganz klar die Notwendigkeit einer strengen Ausrichtung an Standards, so wie es die Provider schon längst vormachen. Alles andere kann richtig teuer werden!

Das führt auch auf die Frage zurück, ob man das RZ-Netz nicht ganz anders organisieren könnte und den in anderen Bereichen der DV erfolgreichen Ansatz des ScaleOut auch auf Netze übertragen kann. HP (mit Voltaire), und IBM machen das schon für ihre High End Blade-Server. Alle Netzkomponenten sind dabei streng nach Standards aufgebaut, lediglich die notwendige Steuerungssoftware nicht, weil es dafür (noch) keine Standards gibt.

Weitere Impulse erwarte ich von SDN, dem Software Defined Networking. Zum ersten Male seit dem Ende der zentralen Datenverarbeitung haben wir nämlich die Situation, dass die Einstiegsschwelle für das Anbieten von Netzwerk-Komponenten erheblich sinkt. Auf der einen Seite gibt es die neuen, extrem leistungsfähigen Switch-ASICs, die bei allen möglichen funktionalen Unterschieden letztlich eine Standard-Hardware darstellen, die von allen benutzt werden kann. Sinnvoll können sich die Hersteller auch in Zukunft daher nicht mehr durch Hardware differenzieren.

Um diese Hardware zu benutzen, benötigt man lediglich entsprechende Software-Controller. Diese können auch von sehr kleinen Unternehmen kommen. Etablierte Hersteller gehen aktuell den Weg, derartige Start-Ups möglichst umgehend aufzukaufen. Damit werden sie aber nicht alle „erwischen“. Es kann durchaus sein, dass sich dadurch das uns aktuell bekannte Gefüge der Hersteller vollständig ändert. Zusätzlich gibt es ja noch den Druck von den Virtualisierungsherstellern wie VMware, die das Netz auch am liebsten ganz „übernehmen“ würden.

Nach einer gewissen Verwirrungsphase werden diese Entwicklungen letztlich dazu beitragen, dass die Kosten für gute Netzwerklösungen deutlich sinken werden und alle Kunden davon profitieren können.

Das Einzige, was man heute schon sicher sagen kann, ist, dass abgesehen von den Controllern selbst die gesamte Hardware zu 100% an Standards ausgerichtet sein wird, denn sonst lassen sich die Switch-ASICs nicht in einer interessanten wirtschaftlichen Stückzahl herstellen.

Die Bedeutung von Standards wird in der Zukunft also noch weiter zunehmen!

« Teil 4: ScaleUp ist eine sinnvolle StrategieTeil 6: In einem Switch ist viel „drin“ »


zugeordnete Kategorien: LAN
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.