I/O-Konsolidierung

Kommentieren Drucken
Teil 27 von 71 aus der Serie "Professionelle Datenkommunikation"
Alle Artikel der Serie "Professionelle Datenkommunikation":

Corporate Networks stehen immer wieder vor neuen Herausforderungen. Ein wesentlicher Bereich ist die in Rechenzentren stattfindende Virtualisierung, die zum einen de Fakto die gewohnte Abteilungsrechnerebene völlig verschwinden lässt und zum anderen dabei natürlich die gewohnten Datenströme massiv ändert. In der Virtualisierung liegen aber derart massive Chancen und Optimierungspotentiale, dass sie neben der schon seit längerem statt findenden Rezentralisierung in jedem Falle schon jetzt ein nicht umkehrbarer Trend ist. Wesentlicher Bestandteil dieser Entwicklungen ist die I/O-Konsolidierung.

Angesichts all dieser Anforderungen stellt sich natürlich die bohrende Frage, ob die heute aufgebauten Netze auch in Zukunft in der Lage sind, diese Aufgaben zu bewältigen. Die Ethernet-Technologie geht in immer höhere Geschwindigkeitsbereiche, nach 10 GbE werden jetzt auch 40 und 100 GbE erschlossen. Über einen Server-Anschluss mit weniger als 10 GbE brauchen wir nicht mehr zu diskutieren.

Die letzten 12 bis 15 Monate haben sowohl von der Seite der Standardisierung als auch im Rahmen von Herstellerinitiativen eine fast unüberschaubare Reihe von neuen Technologien und Verfahren hervorgebracht, deren Ziel letztlich eine völlige oder teilweise Renovierung der bisherigen Netzwerkstrukturierung ist. Optimierungen für das RZ unter den Stichworten CEE, DCE oder DCB haben durchaus das Potential zu einer erheblichen Komplexitäts- und Kostensenkung.

Es geht dabei weniger um Netze, als vielmehr um Gesamtlösungen für das RZ. Hersteller bemühen sich, Kunden dadurch zu binden, dass sie ihnen das komplette Spektrum aus Servern, Netzen und Speicherlösungen, die man für eine virtualisierte Umgebung benötigt, aus einer Hand anbieten. Das hat für einen Kunden den entscheidenden Vorteil, dass er auch einheitliche Instrumente für das Management dieses neu entstandenen Gebildes bekommt.

Das ist nur logisch. Der Marktführer für Virtualisierungssoftware, VMware, hat mit vSphere das Modell einer lokalen Cloud geschaffen. Das besteht eben aus Servern, Speichern und Netzen und wird dann grob gesagt wie ein einzelner großer Rechner verwaltet. Anwendungen laufen auf den im Rahmen des Systems bereitgestellten virtuellen Maschinen und kommunizieren vornehmlich nicht mit IPC, sondern über virtuelle Switches. Und damit passiert eines:

Das Netz wird zum Systembus!

Das zieht natürlich unmittelbar nach sich, dass sich seine Aufgaben ändern, vor allem hinsichtlich des Speicherverkehrs. Bislang hat man oft den Speicherverkehr aufgrund seiner hohen Anforderungen auf ein eigenes Netz gelegt (das FC-SAN) und das „normale“ RZ-Kernnetz hatte die Aufgabe, die I/O zu implementieren, was vergleichsweise harmlos war.

Ab jetzt sind die früher eigentlich immer getrennt betrachteten (und auch mit unterschiedlichem Personal versehenen) Bereiche

  • Server
  • Speicher
  • Netz

untrennbar und mit noch nie da gewesener gegenseitiger Abhängigkeit verbunden.

Der primäre Auslöser dafür ist die Virtualisierung. Nur wenn man sich damit ernsthaft auseinander setzt, kann man verstehen, wo Abhängigkeiten bestehen und welche Auswirkungen das auf die Anforderungen an die Netze der Zukunft haben wird.

Die Virtualisierung ist jedoch ein eigenständiges, komplexes Thema. Es wird nicht in dieser Reihe behandelt, sondern in einer eigenen Reihe „Virtualisierungstechniken“.

Wie schon zu Beginn der letzten Folge erwähnt, ist es für viele Betreiber nicht mehr tragbar, mit FC-SANs und 10/40/100 GbE-LANs zwei völlig unterschiedliche Infrastrukturen aufzubauen. Kern der sogenannten I/O-Konsolidierung ist die Konvergenz von LAN und SAN im RZ. Hersteller und Standardisierung haben uns in diesem Zusammenhang mit einer Unmenge neuer Begriffe überflutet.

In heutigen RZs benutzen Unternehmen üblicherweise Ethernet für die TCP/IP-Netze und Fibre Channel für Storage Area Networks SAN.

Ethernet-Netzwerke werden üblicherweise dazu aufgebaut, dass Benutzer relativ geringe Datenmengen über LANs oder auch größere Distanzen bekommen können.

Storage Area Networks in Unternehmen und Organisationen implementiert, die für Anwendungen wie Booting, Mail Server, File Server oder große Datenbanken den Zugriff auf Block-I/O benötigen.

Die Vorteile der SANs sind:

  • zentralisiertes Management
  • hohe Sicherheit
  • sinnfälliger Verwaltung der Speicher-Ressourcen,
  • einheitliche Darstellung und Implementierung spezieller Storage Services, wie periodische Backups
  • Unterstützung des Betriebs effektiver Benutzungsniveaus der Speicher-Ressourcen.

Die Konvergenz von LAN und SAN im RZ bringt eine Reihe möglicher Vorteile. Sie
beruht auf der Abbildung von „Speicherverkehr“ auf die Ethernet Switching Fabric mittels einer geeigneten Technologie wie z.B.

  • iSCSI
  • FCoE
  • FCIP

iSCSI ist bewährt und problemlos. Es handelt sich dabei um die Möglichkeit, SCSI-Verkehr über ein IP-Netz laufen zu lassen, welches wiederum mittels eines normalen Ethernets implementiert werden kann. iSCSI ist in vielen Umgebungen zu finden, die aus der Historie heraus nie den Bedarf hatten, ein FC-SAN aufzubauen. Diese Betreiber sind heute fein heraus, denn sie haben die I/O-Konvergenz letztlich bereits realisiert. iSCSI hatte immer den Ruf, langsamer als FC zu sein. Das lag primär daran, dass man für die Bearbeitung der entsprechenden Kontrollprozeduren zunächst oft auf den Prozessor des Rechners zurückgegriffen hat, der eben via seiner Ethernet-Adapterkarte via iSCSI auf ein Speichersystem zugreifen konnte. Das führte zu einer hohen Systembelastung und einem entsprechend relativ langsamen Datenverkehr. Also hat man früh damit begonnen, die iSCSI-Funktionen auf Kontrollprozessoren auszulagern, die auf den Adapterkarten sitzen und die iSCSI Kontrollfunktionen direkt ausführen, was sowohl zu einer erheblichen Entlastung des Prozessors als auch zu einer wesentlichen Steigerung der Transferleistung geführt hat. Seit 2011 gibt es z.B. von Broadcom ASICs für Adapterkarten und Switches, die in einem einzigen Chip auch die Kontrollprozessoren beinhalten. Damit kann iSCSI vollständig von der Entwicklung der Übertragungsgeschwindigkeiten bei Ethernet profitieren.

FCoE, also die Abbildung von FC-Paketen auf Ethernet-Pakete klingt zunächst einmal gut, stellt aber zusätzliche Anforderungen an die Ethernet Switching Fabric, die ggf. komplex und kritisch werden können, obwohl sie sich zunächst trivial anhören:

  • Lossless Ethernet
  • Congestion Notification & Control

Die Vorzüge der an sich einfachen Idee der I/O-Konsolidierung für die Betreiber sind enorm. Unternehmen, die eine derartige I/O-Konsolidierung vornehmen, werden

  • erhebliche Gewinne in der Slot-Effektivität von Servern haben
  • mit Multifunktions Netzwerk- und Storage Adaptern die Verkabelung eines Racks erheblich vereinfachen
  • die Abwärme, die ein Server erzeugt, reduzieren (und damit den Stromverbauch)

Heute benutzt man 4,6, oder sogar 8 Netzwerk-Adapter in kritischen Servern. Das können z.B. 2 FC-Host Bus-Adapter und 2 Ethernet NICs sein, bei virtuellen Maschinen je nach Vorgaben des VM-Herstellers auch bis zu vier NICs zusätzlich.

I/O-Konsolidierung bedeutet dass ein Kunde statt dessen Multifunktions- Netzwerk/Speicher-Adapter anstelle der Netzwerk-spezifischen Karten einsetzen kann, und zwar nur zwei. Dadurch spart man bei

  • Rack-Verkabelung
  • Verkabelung generell
  • Switchports
  • I/O-Stromverbrauch
  • Switch-Stromverbrauch
  • Kühlung

In Abbildung 1 sieht man sehr deutlich, was gemeint ist. Schon ohne Virtualisierung ergibt sich ein deutlicher Effekt, der mit Einführung der Virtualisierung noch deutlich verstärkt wird.

Die wichtigsten Alternativen zur I/O-Konsolidierung sind iSCSI, FCIP und FCoE

  • iSCSI setzt auf TCP/IP auf und geht erst damit auf die Ethernet-Schicht. Damit kann es alle Kontrollfunktionen von TCP/IP benutzen.
  • FCIP ist eine Möglichkeit, FC-Funktionalität auf TCP/IP aufzusetzen. FCIP kann alle Kontrollfunktionen von TCP/IP benutzen, ist aber nicht so marktgängig.
  • iFCP ist eine ähnliche Konstruktion und ebenfalls wenig marktgängig
  • FCoE ist ein neuer Standard im Rahmen des ANSI-Standards zu FC-Backbone Bridges (FC_BB), bei dem die TCP/IP-Schichten nicht durchlaufen werden müssen. Dafür werden erhöhte Anforderungen an die Ethernet-Schicht gestellt: „lossless“ Ethernet

Bei den ersten vier Alternativen wird der FC-Verkehr auf ein Ethernet mit oder ohne TCP/IP abgebildet. Die Abbildung 2 zeigt, wie das in den üblichen Protokollstack eingebettet wird.

Natürlich könnte man auch InfiniBand (IB) benutzen, das ist eine Technologie, die für Busverlängerungen im Umfeld von Hochleistungs-Computing benutzt wird und letztlich eine fundamentale Weiterentwicklung von IBMs FICON ist. IB hat eine enorme Leistung, ist aber eigentlich nur im HPC-Umfeld verbreitet. Für die Darstellungen hier spielt es keine weitere Rolle mehr.

Hinter iSCSI und FCoE stehen jeweils Herstellerinteressen sowohl auf der Speicher- als auch auf der Netzwerkseite.

Es gab und gibt eine wüste und unübersichtliche Auseinandersetzung zwischen den jeweiligen Befürwortern von iSCSI und FCoE

Im Grunde ist diese Auseinandersetzung ebensowenig sachlich wie hilfreich denn:

  • jemand, der heute iSCSI im unteren und mittleren Leistungsbereich einsetzt und damit zufrieden ist, hat keinen Grund auf FC oder FCoE zu wechseln
  • jemand, der heute im oberen Leistungsbereich FC einsetzt, wird sich FCoE oder ansehen
  • die Substitutionskonkurrenz wird überschätzt

Außerdem gab es sehr gute Fortschritte hinsichtlich der Hardware-Beschleunigung von iSCSI, z.B. bei HP. Wir sehen jetzt 4 Gb-iSCSI, technisch ist 2010/11 auch 8-10 Gb-iSCSI möglich.

Fassen wir zusammen:

I/O-Konsolidierung ist möglich und hat folgende Vorzüge für ein RZ:

  • Weniger NICs pro Server
  • Reduktion im Power Budget für die Server
  • Reduktion der Anforderungen an die Kühlung
  • Signifikante Reduktion der Kabelmenge
  • Nahtlose Konnektivität zwischen SANs und Ethernet
  • Bewahrung aller Investitionen in FC-Infrastruktur und –Betrieb

iSCSI ist bekannt und bewährt, benötigt aber relativ hohe Prozessorleistung. Dies kann man aber durch Hardware-Beschleuniger wesentlich mildern.

FCoE kann den FC über Ethernet laufen lassen aber: die Voraussetzungen an das Netz sind hoch.

« Teil 26: Fibre ChannelTeil 28: FCoE und ANSI FC-BB-5 »


zugeordnete Kategorien: LAN
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.