Netzwerk-Management und Betrieb

Kommentieren Drucken
Teil 60 von 71 aus der Serie "Professionelle Datenkommunikation"
Alle Artikel der Serie "Professionelle Datenkommunikation":

Das beste Netzwerk nutzt einem Unternehmen nichts, wenn es nicht permanent überwacht wird. Nur so können Fehler möglichst im Vorfeld erkannt und durch proaktive Maßnahmen beseitigt werden. Trotzdem sind sie nicht gänzlich auszuschließen. Also geht es dann darum, sie möglichst schnell zu beseitigen. Auch wenn bei ganz modernen Netzen durch Redundanz in Leitungen, Komponenten und Software der Betrieb unterbrechungsfrei weiterlaufen kann, muss der Fehler dennoch schnell gefunden werden, denn die Redundanz hält nicht beliebig viele Schadstellen aus. Die Instrumente basieren schon seit vielen Jahren auf den gleichen Basismechanismen, allerdings wurde die Bedienung immer komfortabler. Ein weiterer, wesentlicher Aspekt ist darüber hinaus die Frage, ob man nicht mit den vielen Daten, die in diesem Zusammenhang erfasst werden, etwas mehr machen kann und z.B. Geschäftsprozesse aufgrund der gewonnenen Aspekte optimiert. Insgesamt ist das ein sehr spannendes Thema, was uns beginnend mit dieser Folge eine Weile beschäftigen wird.

Innerhalb eines PC-LANs, eines Heimnetzes oder einer anderen geschlossenen Umgebung für die Informationsverarbeitung wie einem SNA-Netz ist die Verwaltung relativ eindeutig durch die Hilfsmittel der einzelnen Netzwerk-Betriebssoftwarepakete geregelt. Sobald man die in sich relativ geschlossene Umgebung verlässt, stößt man mit diesen Hilfsmitteln, z. B. für die Benutzerverwaltung, an Grenzen. Dies wird besonders schmerzhaft beim Übergang in eine andere Rechnerwelt, z. B. wenn man ein Intranet mit TCP/IP-Mechanismen und Browsern dazu benutzen möchte, auf eine bestehende klassische Host-Umgebung zuzugreifen, spürbar. Es stellt sich also neben den eigentlichen Verwaltungsaufgaben die Frage nach übergreifenden Management-Konzepten, die unterschiedliche Systemwelten integrieren.

In diesem Teil präzisieren wir zunächst die erweiterten Aufgabenbereiche modernen Netz- und System-Managements. Die für das Umfeld der LANs wesentlichen Standards sind SNMP und RMON. Wir stellen sie und die wichtigsten Produktstrategien, letztere ganz kurz, vor. Danach kommen wir auf das Problem der Sicherheit in Netzen und zeigen, inwieweit LANs an sich überhaupt etwas damit zu tun haben. Netzwerk-Management in der Praxis bedeutet, eine Reihe unangenehmer Erfahrungen zu machen und mit diesen umzugehen. Der Bedarf an Netzwerk-Management ist zur Zeit in einer starken Wandlung begriffen. Die Netzwerk-Management-Standards haben mittlerweile gezeigt, was mit ihnen möglich ist und was nicht, weshalb in einem eigenen Abschnitt eine Momentaufnahme der Problematik gegeben wird.

Heutige Unternehmen, Organisationen und Behörden besitzen oft zwei grundverschiedene Systemtypen zur Datenverarbeitung: Das Rechenzentrum mit zentralen Rechnern und Anwendungen einerseits sowie Abteilungs- oder Bereichslösungen mit dezentralen Rechnern, nämlich PCs, Minis oder Workstations andererseits.

Erst die Virtualisierung ändert das: die bisherigen dezentralen Rechner werden samt Speicher auf einige wenige Server konsolidiert und die Anwendungen laufen dann auf den so entstehenden Virtuellen Maschinen. Grade dadurch entstehen enorme betriebliche Vorteile, die letztlich auch zu wesentlichen Kostenvorteilen führen.

Dieser Vorgang ist aber in vielen Unternehmen und Organisationen längst nicht abgeschlossen. Voraussichtlich wird es auch noch einige Jahre dauern, bis der letzte Server virtualisiert ist, wenn das überhaupt geschieht.

Die klassischen Systemtypen Host und Abteilungsserver stellen völlig unterschiedliche Methoden und Werkzeuge zur Informationsverarbeitung bereit und nutzen dementsprechend zunächst auch unterschiedliche Techniken zum Informationstransfer. Dies hängt vor allem mit den unterschiedlichen Betriebssystemen zusammen.

Die zentrale Datenverarbeitung bedient sich einer Baumstruktur für die Nachrichtenausbreitung. Ausgehend von einem zentralen Softwarepaket, welches üblicherweise auf einem Mainframe-Rechner installiert ist, werden allen angeschlossenen Teilnehmer-Endgeräte, die normalerweise nicht über lokale Intelligenz verfügen müssen, mit Informationen versorgt. Gleichermaßen unterstützt diese Software auch die Informationsbeschaffung für die Anwendungsprogramme. Dabei ist es ziemlich gleichgültig, ob der Weg vom Host zum Terminal unmittelbar ist, oder ob noch Kommunikationsvorrechner und Cluster-Controller vorgeschaltet werden. Klassische SNA-Netze von IBM oder TRANSDATA-Netze von SIEMENS sind Beispiele für zentral orientierte Baumnetze. Die Betriebssysteme der Hosts sind funktional sehr reichhaltig und arbeiten eng mit den Netz-Kontrollprogrammen zusammen. Die Steuerung und Überwachung derartiger Netze ist relativ simpel, da zwar bei großen Netzen viele Informationen verarbeitet werden müssen, diese jedoch wegen der relativ eindeutigen Zuordnung zwischen logischen Verbindungen und physikalischen Wegen sehr einfach strukturiert sind.

Die dezentrale Datenverarbeitung setzt auf Intelligenz in den Endgeräten. Mit der Verteilung der Informationsverarbeitung sollte auch die Verteilung des Kontrollflusses einhergehen. Wenn wir jedoch die populärsten Vertreter der dezentralen Datenverarbeitung, die PC-Netze, betrachten, stellen wir schnell fest, dass es mit der Verteilung nicht besonders weit her ist, da fast alle Anwendungen auf Client-/Server-Strukturen beruhen, bei denen die Verantwortung in den Servern liegt. Und diese besitzen wiederum angemessene Kontrollprogramme, die auch Benutzerkonfigurierung und Netzwerk-Überwachung unterstützen können.

Virtualisierung bedeutet Re-Zentralisierung. Die Kontrolle liegt jetzt bei der Menge der Server, die die VMs implementieren. Der Betreiber muss hier nicht mehr an jede Einzelheit Hand anlegen. Vielmehr gibt es mehrere geschachtelte Abstraktionsebenen, die entsprechende Kontroll-Oberflächen unterstützen. Ausgehend von einer grundsätzlichen Konfiguration kann sogar ein hoher Grad an Automation erreicht werden. Dadurch entstehen auch völlig neue Funktionen, wie z.B. Fehlertoleranz durch wandernde Virtuelle Maschinen. Funktioniert ein Server in irgendeiner Komponente nicht mehr so, wie er soll, kann eine VM, die eine Anwendung unterstützt, diesen Server verlassen und auf einem anderen Server weiterarbeiten. Dazu ist eine Reihe von Voraussetzungen zu erfüllen, was aber durchaus technisch machbar ist. Von einer solchen Funktion konnte man früher nur träumen!

Alle Netze haben heute ihre eigenen passenden Werkzeuge für das Netzwerk-Management. Wo liegt also das Problem?

Das Problem ist das oft relativ unkontrollierte Zusammenwachsen heterogener Netze auf der Basis unterschiedlicher technischer Lösungen (PC-Host-Kopplung über LANs, Router, Gateways) und anwendungsorientierter Grunddienste (OSI FTAM, X.400, TCP/IP-FT usw.) und das damit verbundene explosionsartige Wachstum der Gesamtnetze.

Die Erfahrung der letzten 20 Jahre hat leider gezeigt, dass die Einführung neuer Dienste und Systeme in der verteilten Umgebung (Stichwort: Client/Server, Downsizing) viel teurer ist, als man immer gerne annimmt, weil der Löwenanteil der Kosten auf Personalkosten und Arbeit entfällt. Lange schon ist bekannt, dass die Netzwerk-Betriebskosten pro Jahr die gesamten Netzwerk-Anschaffungskosten erreichen oder übersteigen. Gardner hatte schon früher ausgerechnet, dass die wirklichen Kosten der PC-Software im Service und Support liegen. Eine Rechnung der Gardner-Group von 2000 etwa, ließ die Köpfe der Besitzer von Client-/Server-Lösungen noch weiter sinken: 75 % der Gesamtkosten sind Personalkosten.

Auch diese Tatsache hat letztlich die Entwicklung hin zu virtualisierten Lösungen erheblich befeuert.

Um jetzt keine weitere Verwirrung zu stiften, trennen wir ab hier die Betrachtungen in Netz- und System-Management.

Beim Netz-Management geht es darum, das physikalische Übertragungsnetz und die mit ihm unmittelbar verbundenen logischen Komponenten zu steuern, zu überwachen und ggf. zu optimieren.

Beim System-Management geht es darum, die (üblicherweise an ein Netz angeschlossenen Systeme) wie Server und Speicher zu steuern, zu überwachen und ggf. zu optimieren.

Bei konventionell aufgebauten Systemen sind die Werkzeuge für diese beiden Bereich im Großen und Ganzen getrennt. Erst bei virtuellen Systemen kann man eine derartige Trennung nicht dauerhaft aufrechterhalten, weil das Netz zu mindestens im RZ zum Systembus der virtualisierten Umgebung wird.

Konzepte für das Netz-Management sind letztlich in zwei Kategorien zu untergliedern:

  • Konzepte für das Management organisatorische Teilnetze (RZ, Campus, Teilnehmerversorgung)
  • Konzepte für die Integration der Management-Umgebungen.

Zunächst müssen die Aufgaben des Netzwerkmanagements näher präzisiert werden. In erster Näherung gibt es folgende fünf Gruppen von Netzmanagement-Funktionen:

  • Netzsteuerung (operational management) beschreibt die Gruppe der Funktionen, die im laufenden Betrieb dazu benutzt werden, die Netzwerk-Betriebsmittel bereitzustellen und zu verwalten.
  • Fehlermanagement (maintenance) faßt alle Funktionen zusammen, die zur Fehlerprophylaxe, Fehlererkennung und Fehlerbehebung im Netzwerk benutzt werden können.
  • Konfigurationsverwaltung (configuration management) enthält Hilfsmittel und Funktionen zur Planung, Erweiterung und Änderung der Konfiguration sowie zur Pflege der Konfigurations-Informationen.
  • Netztuning (performance management): Hilfsmittel und Werkzeuge werden zur Messung und Verbesserung des Leistungsverhaltens des Netzwerks eingesetzt.
  • Benutzerverwaltung (user administration): Diese Gruppe enthält Mittel zur ordnungsgemäßen Abwicklung der Benutzung des Netzwerks wie Zugangsverwaltung, Verbrauchskontrolle und Abrechnungshilfen sowie Informationsdienste.

Über die grundsätzlichen Aufgaben des Netz-Managements, nämlich Planung, Implementierung und Kontrolle der diversen physischen und logischen Elemente eines Netzes hinaus muss man weitere Anforderungen an ein Management-System stellen.

Dies betrifft vor allem das Zusammenspiel zwischen Informationen aus dem System (primär sind das Informationen aus den Switches und anderen Netzkomponenten) und den Entscheidungsträgern, den Netz-Administratoren. Sie müssen die geeigneten Daten geliefert, formatiert und präsentiert bekommen. Sie brauchen eine Möglichkeit, Informationen untereinander und mit dem Gesamtsystem austauschen zu können. Dabei kann man voraussetzen, dass die Administratoren räumlich voneinander getrennt sind. Die Informationsaufbereitung und -ausbreitung sollte in höchstem Maße verfügbar und schnell sein.

Denkt man an die Integration von PC-LANs und Großrechnerumgebung, Benutzerbereichen, Campus und RZ-Netz, MAN- und WAN-Strecken, echten oder LAN-basierten Nebenstellenanlagen, Wireless-Versorgungsbereichen und aller sonstigen Komponenten, erweitern sich die Aufgaben jedoch schlagartig.

« Teil 59: Neue Wege zur WLAN-SicherheitTeil 61: Funktionen des integrierten Netzwerk-Managements »


zugeordnete Kategorien: LAN
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.