Die Zukunft des Netzwerk-, Service- und Anwendungs-Managements

Kommentieren Drucken

Das Netzwerk läuft? Die Anwender sind zufrieden? Die Kosten sind überschaubar? Es gibt keine schwerwiegenden Ausfälle und lange Stillstandzeiten? Neue Anwendungen und Anwender können leicht integriert werden? Schön für das Unternehmen. Aber das kann sich bald ändern. Das hohe Entwicklungstempo verschiedener neuer Technologien wie VoIP, Wireless oder Virtualisierung und deren nachgewiesen (wenn man alles richtig macht!) hohe Wirtschaftlichkeit führen zur Notwendigkeit schneller Änderungen. Jede neue Technologie bedeutet auch neue Komponenten im Netzwerk-Management und erfordert Änderungen von Abläufen im Netzwerk-Betrieb. Zum Abschluss des „Management-Blocks“ sehen wir uns in einigen Folgen an, welche, Lösungsmöglichkeiten, Strategien und Produkte sich hinsichtlich der verschärften Anforderungslage entwickelt haben.

Von bestimmten interessierten Kreisen wurde das Netzwerk-Management im letzten Jahrzehnt teilweise unnötig aufgebläht. Die SNMP-orientierte Plattform war das Maß aller Dinge. Neben enormen Investitionsruinen haben manche in diesem Zusammenhang auftretenden Denkweisen, besonders die so genannten Betriebskonzepte, zu einer regelrechten Lähmung des nach wie vor unbestritten enorm wichtigen Technologiebereiches geführt. Grade im Umfeld der Corporate Networks ist das leider verstärkt festzustellen.

Aber, man muss sich mal ganz klar vor Augen halten, dass es auch weltweite, große Netze gibt, die auf eine etwas andere Art und Weise verwaltet werden und trotzdem (oder grade deshalb) gut laufen: die Provider- oder Carrier Netze. Hier ist man andere Wege gegangen, die die Leitlinie für die in diesem Kapitel dargestellten Methoden und Werkzeuge bilden.

Im Bereich der Corporate Networks haben sich viele nicht getraut, neue Wege zu gehen, sondern haben stattdessen die alten Plattformsysteme immer weiter und weiter aufgepumpt. Dabei kam ihnen die Argumentation zu Hilfe, dass ja auch Systeme und Anwendungen mit verwaltet werden müssen. Natürlich muss es auch eine Verwaltung für Anwendungen und Systeme geben, die Einbindung ALLER Management-Vorgänge in ein einziges übergroßes System ist allerdings nicht immer zweckmäßig.

Bisher konnte man sich auf diesem Bereich auch so ziemlich alle denkbaren Extravaganzen und Schnitzer leisten. Das hört aber dann schlagartig auf, wenn die Benutzerzahlen immer weiter steigen und die Benutzer zudem noch mobil werden. Beide Trends zeichnen sich heute deutlich ab.

Nach Ansicht des Autors sind die Plattformsysteme, wie man sie heute kennt, am Ende ihres Lebenszyklusses angekommen. Das sehen natürlich deren Hersteller völlig anders. In etwa der ersten Hälfte dieser Artikelgruppe geht es genau um diese Argumentation.

Ein anderer Punkt ist die mittlerweile zwanghaft gewordene Bindung von Netzwerk- System und Anwendungsmanagement aneinander. Je mehr man nämlich Netze mehr oder minder „wüst“ hintereinanderschaltet, wird es umso schwieriger, ein Management-System nach althergebrachter Methodik aufzusetzen, was hier noch den Überblick behält. Sinnvoller ist die Kombination aus einem Management-System, welches so arbeitet wie ein solches System bei einem Provider und auf zusammengeschaltete Netze spezialisiert ist und permanent die Qualität der Verbindungen überwacht, wozu diese Verbindungen im Einzelnen dann auch gebraucht werden mögen, und einem anderen Management-System, welches einerseits diese Informationen nutzt und andererseits die Anwendungen und Systeme angemessen steuert Es ist letztlich auch eine Frage der Komplexität und der Notwendigkeit, die bei einem Plattformsystem mit der Anzahl der verwalteten Elemente quadratisch steigende Komplexität wenigstens auf ein lineares Maß zu reduzieren.

Schlimm sind in diesem Zusammenhang auch die Betriebskonzepte nach Gutsherrenart, die vor allem in mittleren Unternehmen vorherrschen: man definiert eine Reihe von Aufgaben und setzt drei Mann im 24 Stunden Betrieb davor. Jeder hofft, dass nichts schiefgeht, denn wenn doch, kann er auch nicht viel machen. Das kann man vielleicht so machen, wenn man ein paar Hundert stationäre Anwender mit einer übersichtlichen Zahl friedliebender Anwendungen hat. Sobald sich dieses Szenario aber ändert, wird es schwierig sein, hierauf in angemessener Zeit – normalerweise durch neuerliche Erweiterung der Plattformfunktionalität – zu reagieren.

Viele Unternehmen mögen Folgendes nicht hören: wenn sie zu wenig Ressourcen haben, ihr Netz selbst sinnvoll zu managen, sollten sie das jemandem übergeben, der wirklich etwas davon versteht, z.B. einem Provider, und sich dann auf einige wenige Kernaufgaben im Bereich des Anwendungs- und System-Managements beschränken. Meist hegen sie die Hoffnung, dass mit einer neueren, stärkeren, funktionsreicheren Version der bislang wenig erfolgreichen Plattform die Karre aus dem Mist käme. In Wirklichkeit versenkt man aber nur noch mehr gutes Geld in die falsche Richtung. Natürlich arbeiten die Provider in dieser Hinsicht auch nicht freiwillig optimal, sondern man muss schon sehr genau hinsehen, was man möchte und ob das auch im gewünschten Umfang realisiert wird. Dazu ist es besonders wichtig, eine Schnittstelle zu haben, die das Wissen des Management-Systems des Providers hinsichtlich der Endkundensicht angemessen aufarbeitet. So etwas gibt es schon seit einiger Zeit und es funktioniert gut.

Im öffentlichen Bewusstsein ist es noch nicht so weit verbreitet, dass es eine Standard-Schnittstellendefinition für den Informationsaustausch über zusammengeschaltete Netze hinweg gibt. Sie hört auf den Namen G.709. G.709 ist sozusagen das SNMP der modernen großen Höchstleistungsnetze im Provider-Bereich, aber auch jeder Kunde kann die auf diesem Wege entstandenen Informationen via eines wie oben beschrieben arbeitenden Management-Schnittstellensystems nutzen.

Bei allen Fortschritten wollen wir nicht verschwiegen, dass es einen sehr sehr dunklen Management-Bereich gibt: das Wireless Management für WLANs, also ordnungsfreie lokale Zellen. Aber es gibt eine Arbeitsgruppe bei IEEE 802.11n, die sich darum kümmert. Leider können wir hier in dieser Reihe noch keine konkreten Ergebnisse, sondern nur den aktuellen Stand der Diskussionen darstellen.

Zunächst jedoch beschreiben wir einige wesentliche neue Strömungen des modernen Netzwerk-Managements für konventionelle verkabelte oder optische Netze:

  • Subsummierung wesentlicher Einflussfaktoren,
  • Globalisierung und Netzwerk-Management
  • Neue Entwicklungen im Performance- und Service- Management
  • Aspekte des Sicherheits-Managements
  • Der Weg zum Business Service Management

Der Standard ITU-T G.709 ist DIE WESENTLICHE BASIS für den Betrieb von Multi-Provider-Multi-Domänen-Netzen (MPMD-Netze). Es nimmt mich immer wieder Wunder, dass es verschiedene Leute gibt, die munter über WAN-Redesign oder wirtschaftlichen Betrieb von MPMD sprechen, diesen Standard aber überhaupt nicht erwähnen. Dabei ist G.709 und die zu ihm assoziierten Standards wirklich so eine Art SNMP für MPMD-Netze. Er legt mit vergleichsweise einfachen Mitteln die Grundlage für die Bereitstellung von Management-Informationen über mehrere Domänen und Provider hinweg. Es muss jetzt niemand damit basteln, aber kennen sollte man ihn. Denn nur so lassen sich z.B. Angebote für Management-Schnittstellen von Providern angemessen bewerten. G.709 wird von mir in einer anderen Reihe auf diesem Wissensportal ausführlich dargestellt, darum besprechen wir ihn hier nicht weiter.

Wesentliche Einflussfaktoren

Die Anforderungen an Netzwerke und ihren Betrieb unterliegen z.Zt. dramatischen Änderungen gleich aus mehreren Richtungen:

  • Die Integration neuer Übertragungstechnologien wie Wireless erfordert ein ggf. weitgehendes Redesign bestehender Netze in Richtung der Teilnehmeranschlüsse

Die „Wireless Revolution“ ist überhaupt nicht mehr aufzuhalten. Wenn überhaupt, verlangsamt sie sich höchstens selbst durch Unstimmigkeiten in den Standards oder für Corporate Networks ungünstige Strömungen wie eine zu starke Ausrichtung auf den Home-Markt. Aber es ist nicht mehr wegzudiskutieren, dass das durchschnittliche Endgerät vorwiegend wireless angebunden wird, um welches Endgerät es sich im Einzelnen auch immer handeln mag. In diesem Zusammenhang ist natürlich die Mobilität ein wesentlicher Faktor, die in sehr unterschiedlichen Erscheinungsformen auftreten kann. Da wäre zum einen die echte Mobilität, wie wir sie vom Handy gewohnt sind. Es gibt aber auch viele Geräte, die sich an einem Punkt, z.B. einem Hot Spot, einloggen und dann erst einmal eine Zeit lang dort bleiben. Schließlich wird es auch wirklich stationäre Geräte geben, die dennoch über eine Wireless-Verbindung verfügen. Das wirft interessante Fragen auf, wie z.B. „wo ist ein Gerät?“, „wie lange bleibt es dort?“ „wie viele Geräte können sich auf soundso viel qm funktechnisch versammeln?“. Das wird spannend, und eine sinnvolle Gesamtlösung für die Behandlung derartiger Problematiken ist vor allem über mehrere Funkdienste hinweg heute keineswegs in Sicht. Auch die Standardisierung sagt hier herzlich wenig, obwohl es entsprechende Interessengruppen gibt. Andererseits gibt es wunderschöne, funktionierende Lösungen im Providerbereich sowohl für Mobilfunknetze als auch für die neuen WirelessMAN-Strukturen (WIMAX). Auf dem WLAN-Bereich geht es aber noch sehr zögerlich voran und eine Integration steht völlig aus. Dabei ist genau das das Problem: an einer Stelle werden verschiedene Funkdienste koexistieren. Dies ist sowohl durch die Art und Natur der Funkdienste als auch durch die Möglichkeit der in den Endgeräten befindlichen Chipsätze begründet, alternativ mit mehreren Funkdiensten arbeiten zu können.

  • Die Integration von VoIP erfordert ein „Voice Ready“-Kernnetz mit erhöhten Anforderungen an Verfügbarkeit, Verzögerung und Gesamtleistung

In diesem Portal sind an anderen Stellen schon mehrfach die Anforderungen an ein „Voice Ready“ Design dargestellt worden, sowohl für verdrahtete, als auch für Wireless-Strukturen. In der Praxis werden alle diese Strukturen zusammenwirken und die Anforderungen stellen sich „Ende-zu-Ende“. Hier ergeben sich zwei Seiten. Zunächst einmal muss durch das Design und durch die einzelnen Komponenten sichergestellt werden, dass das Netz die in es gesetzten Erwartungen auch erfüllen kann. Ein ungünstiges Design und/oder zu wenig leistungsfähige Komponenten können dem VoIP-Traum schnell ein deutliches Ende setzen. Danach ist man aber längst noch nicht fertig: die durch Geräte, Struktur und Design erzielte Konstruktion muss permanent überwacht werden, um sicherzustellen, dass die Qualität gehalten wird. Außerdem muss es sehr strenge Richtlinien darüber geben, in welcher Weise Erweiterungen vorgenommen werden dürfen. Wie wir aus der Vergangenheit wissen, ist das ein nichttriviales organisatorisches Problem. Ein anderer Bereich ist der des Weitverkehrsnetz. Wie in einem vorigen Kapitel dargestellt wurde, gibt es durch die optische Übertragungstechnologie hier eine Reihe von Verbesserungen, die aber noch nicht wirklich zum durchschnittlichen Betreiber eines Corporate Networks vorgedrungen sind. Es ist beim besten Willen auch nicht abzuschätzen, wann und wo die entsprechenden Verbesserungen durchschlagen. Allerdings wird es immer dann einen Ruck geben, wenn große Provider die von ihnen angebotene Telefontechnologie intern auf VoIP umstellen oder neue Provider auf den Markt treten, die direkt nur eine derartige Technologie unterstützen. Dann kommt es nämlich ganz schnell zu einem Wettbewerb, bei dem letztlich nur die Kunden gewinnen können.

  • Man hat lernen müssen, dass Sicherheit in einem Netzwerk nur mit einem integrierten, ganzheitlichen Ansatz erzielt werden kann. Dies ist eine überaus hohe Herausforderung

Das hatten wir ja schon in den Folgen 35 bis 41 herausgearbeitet, aber in diese Aufzählung gehört eine Erwähnung einfach hinein, weil es sich um eine besonders schwerwiegende Anforderung handelt.

  • Die Globalisierung erfordert ggf. eine geographische Neuverteilung der wertschöpfenden Prozesse und eine Präsenz in der Summe der lokalen Teilmärkte, die den Weltmarkt darstellt.

Hiermit liegen nur bei wenigen internationalen Konzernen wirkliche Erfahrungen vor. Generell wird es eine schwierige Aufgabe sein, die Geschäftsprozesse in der gewünschten Form um zu definieren und sie dann auch mit den geeigneten Hilfsmitteln angemessen zu unterstützen. Jeder der lokalen Teilmärkte hat spezifische Eigenschaften hinsichtlich von Verfügbarkeit und Kosten von WAN-Kapazität, jeder in diesem Zusammenhang benutzte Provider schafft eine eigene Domäne und gibt unterschiedliche Hilfsmittel für die Überwachung der Verbindungen. Auch hier ist letztlich die Integration der wesentliche Punkt.

  • Diese Neuverteilung kann nur auf einem extrem leistungsfähigen und verfügbaren Netz basieren. Neben der an sich schon hinreichend komplexen Neudefinition übergreifender Geschäftsprozesse gibt es die Notwendigkeit zur ggf. „weltweit flächendeckenden“ Einführung von leistungsfähigen, ergonomischen Kollaborationstechnologien

Die meisten Unternehmen betreiben heute erfolgreich ein Intranet und Workgroup-Computing auf der Basis von z.B. Notes. Man wird VoIP einführen und wenn man klug ist, diese Dinge von der Seite des Betriebes her angemessen integrieren. Die Kollaborationsprodukte der vierten Stufe sind allerdings allesamt so neuartig, dass sich noch nicht sicher sagen lässt, welche Anforderungen (außer vielleicht Bandbreite) sie in der flächigen Anwendung stellen. Es kann sein, dass sie relativ harmlos zu betreiben sind, wenn es genügend Bandbreite gibt und das Netz insgesamt „VoiceReady“ ist. Es kann aber auch sein, dass sich plötzlich Untiefen auftun, die z.B. vom geringen Reifegrad der Produkte oder von Unverträglichkeiten der Produkte mit bestehenden Lösungen kommen können. Nichts Genaues weiß man nicht, und das wird auch noch dauern.

  • Diese Kollaborationstechnologien sind ein lebensnotwendiger Hauptnerv des Unternehmens und stellen daher besondere Anforderungen an Sicherheit, Leistungsfähigkeit, Verfügbarkeit und Wirtschaftlichkeit der unterstützenden Netze

Das sollte ohne weitere Erläuterung klar sein.

  • Aktuelle Projekte im Rahmen der Server-, Speicher- und RZ-Restrukturierung sind noch längst nicht abgeschlossen und binden weiterhin Kapazitäten

Bitte lesen Sie zu dieser Problemstellung auch meine Reihe zu Virtualisierungstechniken auf diesem Wissensportal

zugeordnete Kategorien: LAN
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.