Neue RZ-Infrastrukturen legen die Basis für virtualisierte TK-/UC-Lösungen

Kommentieren Drucken

Analysiert man die System- und Infrastruktur-Anforderungen moderner Web-Architekturen und von zukünftigen TK- und Unified Communications-Lösungen inklusive Sprache und Video, dann stellt man schnell fest, dass diese Anforderungen fast identisch sind. Betrachtet man dazu die Entwicklung auf der Herstellerseite, dann liegt die Prog-nose nahe, dass TK- und UC-Architekturen innerhalb der nächsten fünf Jahre komplett virtualisiert werden. Die Vorteile für die Installation und den Betrieb sind zu groß, um auf diesen Schritt verzichten zu können.

Anders formuliert:

  • Rechenzentrums-Infrastrukturen müssen sich anpassen, um dem aktuellen Bedarf von Web- und Realzeit-Anwendungen zu entsprechen.
  • TK- und UC-System-Architekturen sind heute schon in vielen Fällen virtualisierbar, allerdings nur in sehr einfacher Weise. Die vollständige Virtualisierung unter Ausnutzung aller Architekturvorteile wird in den nächsten 2 bis 3 Jahren erfolgen.
  • Beide Welten wachsen zusammen und werden in Zukunft auf gemeinsamen Infrastrukturen aufsetzen.

Wer ist von dieser Entwicklung betroffen:

  • Die Planer und Betreiber von Rechenzentrums-, Web und TK-Infrastrukturen, also Netzwerken, Speichersystemen, Servern, Klimatisierung und Stromversorgung.
  • Die Planer und Betreiber von TK- und UC-Lösungen. Diese müssen die sehr unterschiedlichen Ansätze der Hersteller analysieren und beobachten. Leider stellen speziell TK- und UC-Hersteller ihre Virtualisierungs-Architekturen nur sehr nebulös dar, detaillierte Analysen lassen sich nicht vermeiden. Insbesondere die Integrierbarkeit in eine gegebene RZ-Infrastruktur und der gegebenen Betriebs-Prozesse muss geprüft werden.

Neue System- und Software-Architekturen sind gefragt. Hier geht es nicht um Feigenblatt-Virtualisierung unwichtiger System-Bestandteile, hier geht es um wirklich neue Architekturen. Einige UC-Hersteller haben ihre Investitionen in Entwicklung stark reduziert, dies ist ein deutliches Indiz dafür, dass diese Hersteller in den nächsten Jahren weiter zurückfallen werden.

Warum sind die Anforderungen von Web- Architekturen und zukünftigen UC-Lösungen so ähnlich? Warum kann heute eine RZ-Infrastruktur so aufgebaut werden, dass sie zukunftsorientiert ist und eine solide Basis für beide Bereiche bietet?

Um diese Frage zu beantworten macht es Sinn, die Kern-Eigenschaften moderner Web-Architekturen zu betrachten:

Parallelität
Web-Architekturen basieren nicht auf einem zentralen Prozess, der umso mehr Last generiert umso mehr Benutzer da sind. Die Grundidee der Web-Architekturen ist, dass sie über die Zahl paralleler virtueller Maschinen skalieren. Je mehr Benutzer eine Web-Applikation benutzen, je mehr virtuelle Maschinen werden gestartet. Die Last einer einzelnen virtuellen Maschine ist überschaubar und kann zum Beispiel einem CPU-Core zugeordnet werden.

Skalierbares Datenbank-Design
Im Rahmen eines parallelen Designs müssen Einzelprozesse vermieden werden, die zu viel Last erzeugen. Im Prinzip muss jeder Prozess parallelisiert werden können. Bei Datenbanken ist das naturgemäß bei dem schreibenden Prozess sehr schwierig und würde eine erhebliche Applikations-Logik erfordern. Ein einfacher Lösungsansatz sieht die Trennung zwischen schreibenden und lesenden Datenbanken mit einer entsprechenden Synchronisation voraus. Lesende Datenbanken können in beliebiger Zahl parallel zueinander existieren.

64 Bit-Architekturen
64-Bit-Architekturen sind heute auch zunehmend für Low-End-Anwendungen normal. Der Vorteil liegt in dem größeren Hauptspeicher, so dass wichtige Teile der Applikation wie zentrale Datenbank-Tabellen nicht ausgelagert werden müssen. Dies vereinfacht die Architekturen und erhöht die Realzeit-Performance. Damit steigt die Fähigkeit virtueller Systeme, auch kritische Anwendungen umzusetzen, erheblich.

Prozesse sind virtuelle Maschinen
Jeder Kernprozess wird durch eine virtuelle Maschine abgebildet. Parallele Prozesse entstehen durch parallel ablaufende virtuelle Maschinen, die durch einen Broker gestartet und kontrolliert werden. Dies passt hervorragend zu der weiterhin zunehmenden Menge an Kernen auf CPU-Ebene.

Dynamische Lasten und hohe Benutzerzahlen
In dieser Architektur spielt die Zahl der Benutzer keine Rolle. Das System skaliert über die Zahl paralleler virtueller Maschinen. Die UC-Hersteller entwickeln quasi eine Software für alle Anwendungs-Größen.

Ausfallsicherheit
Neben den vielen Möglichkeiten, die Ausfallsicherheit in virtuellen Umgebungen zu steigern, ist natürlich die Erzeugung paralleler virtueller Maschinen ein zentrales Instrument der Ausfallsicherheit. Das passt durchaus zusammen. Man nutzt High Availability und Fault Tolerance, um die Prozesse abzusichern, die sich nicht pa-rallelisieren lassen. Dazu zählt zum Beispiel die schreibende Datenbank, die Verbindungs-Information speichert (sofern Status-basierte Protokolle zum Einsatz kommen). Auch der Broker, der parallele Instanzen erzeugt und steuert, gehört dazu.

Schnittstellen und Latenz
In einer Architektur paralleler virtueller Maschinen gibt es zwei zentrale Werte, die die Leistung der Architektur bestimmen. Die Latenz in der Kommunikation zwischen virtuellen Maschinen und die Zeit zum Verlagern einer virtuellen Maschine auf ein anderes System. In der Latenz gehen die Anforderungen in den Bereich von Millisekunden (kleiner 1 ms). Zur schnellen Verlagerung des RAM-Bereichs einer virtuellen Maschine muss der aktive virtuelle Speicher verlagert werden. Je langsamer dies geschieht, desto größer kann die zu verlagernde Datenmenge werden. 10 Gigabit-Ethernet kann man hier als das notwendige Minimum ansehen. Bei den Servern stellen jetzt die ersten Hersteller bereits auf 40 Gigabit um und erhöhen die internen Bandbreiten.

Bandbreitenbedarf
Man muss sich das Rechenzentrum der Zukunft als einen großen Rechner vor- stellen. Das Netzwerk ist der bisherige Systembus. Ein wenig scheint hier die Infiniband-Idee durch. Gleichzeitig sinkt durch die Konzentration auf immer dichter gepackte Blade-Center und durch die Einführung von SAN-Lösungen auch für kleinere Anwendungsbereiche die Zahl der Schnittstellen. 10 Gigabit sind heute im RZ bereits normal, aber der Wechsel auf 40 und später 100 Gigabit ist im Sinne der sich abzeichnenden Skalierung in einem Zeitraum von 5 Jahren unvermeidbar.

Eine Rechenzentrums-Infrastruktur, die diese Anforderungen erfüllt, ist zur gleichen Zeit für die IT-Architekturen der Zukunft und für Sprach- und Video-Lösungen geeignet. Man muss also aus beiden Richtungen auf diese Anforderungen achten:

  • Der Planer einer Sprach- und Video-lösung muss auf die Anforderungen an Virtualisierung und die damit verbundenen Entwicklungen auf der Herstellerseite achten. Die vom TK- und UC-Hersteller angebotene Art der Virtualisierung sollte mit ein Prio-A Auswahlkriterium sein.
  • Der Planer der Rechenzentrums-Infrastrukturen muss die Anforderungen sowohl der IT- und Web-Architekturen als auch der UC-Systeme erkennen und erfüllen.

Das Netzwerk wird zum Systembus
Ältere Netzwerk-Lösungen erfüllen die gegebenen Anforderungen je nach Größe der Umgebung nur zum Teil oder gar nicht. Das Problem liegt in der Verschaltung von Switch-Systemen. Bisher bevorzugen wir Baumstrukturen, in der Regel mit Spanning Tree abgesichert. Damit entstehen uneinheitlich lange Wege durch unnötig viele Switch-Systeme. Nicht nur, dass mit diesem traditionellen Design die Kosten um die 20% höher als mit einem modernen Design sind, wichtige Eigenschaften, wie der Betrieb paralleler Wege, sind nicht umsetzbar. Der zunehmenden Parallelität auf der Server-Ebene muss zwangsläufig auch Parallelität im Netzwerk gegenüber gestellt werden.

Das neue Design unterstellt grundsätzlich nur noch 2 Hops und optimiert durch pa-
rallele Wege nicht nur die Bandbreite, sondern auch die Latenz. Kombiniert man das mit den Realzeitanforderungen einer virtualisierten TK- oder UC-Umgebung, dann erhält man mit modernen Netzwerken deutlich mehr Leistung für 20% weniger Kosten.

Trotzdem bleibt auch in diesem neuen Design das Thema Datenverlust bestehen. Ethernet kann eben von Hause aus nicht verlustfrei arbeiten. Allerdings erlauben neue Switching-Verfahren wie DCB den gezielten Schutz für besondere Anwendungen wie eben den TK- und UC-Bereich. Zwar wurde DCB ursprünglich für die Konsolidierung von Speicher-Lösungen mit FCoE geschaffen, doch sind sich die Anforderungen eines Realzeitsystems mit denen eines Speicher-Systems sehr ähnlich. In beiden Fällen erfordern moderne Technologien (zum Beispiel Einsatz von SSD-Laufwerken in einer Hierarchien von Tiers auf der Speicherseite) sowohl eine hohe Verfügbarkeit als auch einen sehr niedrigen Jitter und eine sehr geringe Latenz. Paketverluste sind für beide Anwendungsbereiche der Worst Case.

Wer also nach einer Infrastruktur-Grundlage für sowohl neue Web-Architekturen als auch für TK-/UC-Lösungen sucht, der kommt an einer Evaluierung von TRILL/SPB und DCB nicht vorbei. Die aktuelle Produktentwicklung auf dem Switching-Markt geht auch klar in diese Richtung. Allerdings ist bei einigen Produkten Vorsicht geboten, da relativ kleine Puffer-Bereiche zu einer Empfindlichkeit gegenüber Microbursts führen, die auch DCB nicht beheben kann. Hier sollte bei der Auswahl der Switch-Systeme darauf geachtet werden, dass genügend Puffer zur Verfügung steht.

Virtualisierungs-bewusste Infrastrukturen
Um die gegebenen Anforderungen zu erfüllen, muss es einen sauberen und gestaltbaren Übergang zwischen virtualisierten Servern und Netzwerken geben. Das ist bisher nicht der Fall. Anders formuliert: an der Realzeitfähigkeit traditioneller Schnittstellen zwischen VMs und physikalischem Netzwerk sind begründete Zweifel angebracht. Die Hersteller haben dieses Problem erkannt und die neuesten Produktvarianten zum Beispiel aus dem Hause Cisco erfüllen höchste Anforderungen an Realzeit-Fähigkeit (siehe UCS 2.0-Ankündiging). Allgemein gesprochen sind VEB und VEPA als Standards für virtuelle Umgebungen, in denen TK- und UC-Systeme umgesetzt werden, im Prinzip je nach Lastsituation unverzichtbar.

Zusammenfassend kann man sagen, dass der Bedarf für Datenapplikationen im RZ sich zunehmend mit den Anforderungen moderner TK/UC-Lösungen deckt. Wer beide Bereiche hinreichend beherrscht, wird ohne Probleme in der Lage sein, Infrastrukturen aufzubauen, die für beide Bereiche eine solide Basis legen. Bei den aktuellen TK/UC-Lösungen ist der Blick nach vorne erforderlich, da noch nicht alle Produkte den vollen Umfang einer virtualisierten Umgebung abdecken. Betrachtet man aber einen Zeitraum von 3 Jahren in die Zukunft, dann ist der Weg in eine vollständige Virtualisierung unter Nutzung aller Eigenschaften einer virtuellen Infrastruktur vorgezeichnet.

zugeordnete Kategorien: LAN
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.