Wandel der Bedarfsentwicklung im Netzwerk-Management

Kommentieren Drucken
Teil 68 von 71 aus der Serie "Professionelle Datenkommunikation"
Alle Artikel der Serie "Professionelle Datenkommunikation":

Netzwerk-Management bedeutet nicht einfach nur den Einsatz einer schönen Plattform. Der Bedarf für Netzwerk-Management wird in den nächsten Jahren stark wachsen, sich aber auch stark verändern. Neuinstallationen führen zu einem Wachstum der DV-Umgebung. Dieses Wachstum hat ernstzunehmende Konsequenzen bezüglich der Notwendigkeit der Automatisierung bestimmter betrieblicher Vorgänge. Insgesamt gab es auch einige unangenehme Erfahrungen, aus denen man lernen sollte. Diese stehen im Zentrum der nächsten Folge (69)

Die Netzwerktechnik wurde über lange Jahre im Allgemeinen im Zusammenhang mit Down- oder Rightsizing gesehen. Letztere Techniken haben den Ruf, Kosten zu senken, was natürlich von Vorständen gerne gesehen wird. Die Insider wissen längst, dass dies nicht von sich aus richtig ist, sondern dass es einer erheblichen Menge von Planungs- und Strukturierungsarbeit bedarf, wenn derartige Projekte erfolgreich abgeschlossen werden und langfristig zur Kostensenkung beitragen sollen. Leider ist heute die Tendenz zu beobachten, dass in Unternehmen oder Organisationen immer weniger Leute immer mehr Netzwerkbetrieb machen sollen. Das ist aber utopisch. Wir können zufrieden sein, wenn der effiziente Einsatz moderner Hilfsmittel zusammen mit einer entsprechenden Strukturierung des Betriebsablaufes dazu führt, dass die bereits bestehende Mannschaft das immer weiter wachsende Netz steuern und regeln kann.

Aktuell haben wir mit der Re-Zentralisierung eine Gegenbewegung zum Downsizing und der Dezentralisierung. Auch diese Methoden werden wieder mit Kostenvorteilen beworben, die bei geeigneter Planung und Implementierung tatsächlich erreicht werden.

Das Netzwerk wird in diesem Zusammenhang zum Systembus der virtualisierten Umgebung und somit wachsen auch die Anforderungen an einen reibungslosen Betrieb weiter stark an.

Noch wichtiger als technische Einzelfragen erscheint mir jedoch das Problem zu sein, dass die bisher relativ stark getrennten Verantwortlichen für Netzwerk- , Server- und System- sowie Speicher-Betrieb viel enger zusammenrücken müssen, weil alle modernen, mit der Virtualisierung zusammenhängenden Aspekte viel stärker verzahnt sind und wesentlich höheren gegenseitigen Abhängigkeiten unterliegen.

Die heutige Bedarfssituation
Die Bedarfssituation ist absolut erdrückend. Zu jedem Stichpunkt, der im Folgenden gegeben wird, ließen sich seitenweise Ausführungen machen. Bitte denken Sie selbst über den einen oder anderen Punkt für Ihr Unternehmen nach. Größere Netze bringen immer mehr Strukturprobleme. Die unselige Ausbreitung von Brücken und Routern führt zu einem unüberschaubaren Chaos möglicher Wege in Netzen. Alle Warnungen der Vergangenheit werden offensichtlich in den Wind geschlagen. Kaum ein Unternehmen hat sich wirklich für einen einheitlichen Netztyp entscheiden können.

Wenigstens im RZ zeichnet sich die Tendenz ab, die bisherige Überstrukturierung durch einfachere, flachere Strukturen abzulösen, die dann auch wieder eine wesentlich bessere Handhabbarkeit haben. Dafür muss man aber grundsätzlich auch einen kompletten Satz neuer Switches kaufen, die älteren lassen sich kaum nachrüsten. Ein weiterer Bereich ist die gewünschte Konvergenz von Daten- und Speichernetzen. Es gibt in diesem Medium andere Serien von mir, die diese Problematik ausführlich behandeln.

Die Migration zu derartigen Netzen ist letztlich zwingend erforderlich. Außerdem setzt der Einsatz moderner Management-Instrumente im weitesten Sinne strukturierte Netze voraus. Im Mittel müssen wir mit 30%Umzügen pro Jahr rechnen, denn wer nicht alle zwei bis drei Jahre umzieht, den hat das Unternehmen vergessen. Dies führt zu vielen Änderungen und Umschaltereien, die einem sinnvollen Organisationskonzept gehorchen müssen. Die Anforderungen an die Dauer dieses Vorgangs werden immer strenger: Es geht nicht an, dass ein teurer Mitarbeiter wochenlang nach seinem Umzug nicht richtig arbeiten kann, weil ihm der Zugang zum Netz fehlt. Altlasten sind ein weiterer Faktor, denn sie führen zu einer statistisch immer weiter steigenden Zahl von Fehlern. Allmählich hat sich die Erkenntnis durchgesetzt, dass man für Netze ein Migrations- und Entsorgungskonzept benötigt, welches dem großtechnischer Anlagen nicht unähnlich ist. So sollte man die Lebenserwartung eines Systems festlegen und es abbauen, bevor es mehr Kosten erzeugt als nutzt.

Virtualisierung führt wie sein „Vorgänger“ Downsizing in einer Übergangsphase zu Betriebsunsicherheiten, der Ausbau neuer Betriebsorganisationen ist die Folge, will man Verfügbarkeitsprobleme und Sicherheitsrisiken gering halten. Verfügbarkeitsprobleme sind an sich unvermeidbar, durch eine entsprechende Strukturierung des Betriebs muss man aber zu schnellen Reaktionszeiten kommen. Der Autor findet es wenig sinnvoll, wenn versucht wird, Funktionen, die mit kritischer Verfügbarkeit zusammenhängen, outzusourcen. Bis der externe Auftragnehmer das Betriebsgelände erreicht hat, ist die gewünschte Reaktionszeit im Allgemeinen abgelaufen. Wie gleich noch weiter auszuführen sein wird, halten heutige »Netzwerk«-Manager gerne die Augen zu, wenn es um Problem-Endgeräte geht. Dabei fallen die absolut meisten Geräte in einem Netz in diese Klasse, die PCs.

Schon vor vielen Jahren gab es zu diesem Problembereich ein Statement von Dr. Suppan, was ich gerne zitiere:

Zwischenfazit (Dr. Suppan)
Die Änderungen der nächsten Jahre erfordern einen völlig neuen Umgang mit Netzwerk-Technologien, und Netzwerk-Management ist die Schlüssel-Technologie für den Erfolg unserer Netze, aber: Der funktionale Bedarf für Netzwerk-Management wird sich stark ändern. Wir kommen in eine Situation, in der nach Berechnungen namhafter Institute die Berücksichtigung aller Komponenten und Möglichkeiten zu erheblichen Folgekosten führen, die zwischen 60 und 140% der Gesamtkosten für Komponenten und Installationen eines Netzwerks pro Jahr liegen. Downsizing und neue Technologien werden dies vermutlich nicht billiger machen. Wir werden dazu kommen, eine Diskussion um Service-Level und Kosten zu führen und sicherlich in bestimmten Bereichen Service-Level senken. Außerdem werden wir vielfach in Details verschüttet, wenn nicht ein straffes Organisationskonzept dahintersteht.

Die klassischen Problembereiche in der Praxis

Hier resümieren wir Erfahrungen aus Projekten und bewerten die Wichtigkeit der oben genannten Problembereiche des Netzwerk-Managements.

  • Fehler-Management:
    Komponentenausfälle sind eher selten, Ärger machen vor allem die Kabel, und hier sind es wieder die nichtstrukturierten Umgebungen, die voll zuschlagen. Fehler- Management bedeutet vor allem die Einführung strukturierter Techniken. Moderne Switches haben erstaunliche Fähigkeiten zur Selbstdiagnose und sind hier wirklich hilfreich. Fehler-Management ist wichtig und unvermeidbar, sollte im Sinne der Netzwerk-Überwachung jedoch nur einen kleinen Teil (und idealerweise immer weiter abnehmenden Teil) der Zeit einnehmen. Elementar sind: Help Desk/Hot Line, Benutzerbetreuung, Archiv und Historie sowie Fehlerstatistiken. In Zukunft besteht Integrationsbedarf für Messtechnik und die praktischen Probes. Betroffen vom Fehlermanagement sind aktive Netzwerk-Komponenten sowie Steuereinheiten, Server und Rechner. Man benötigt eine klare Festlegung für Gefahren- und Überwachungsklassen mit unterschiedlichem Monitoring und Pollintervallen. Heute wird man Endgeräte nicht permanent überwachen, weil man davon ausgeht, dass sich der Benutzer schon meldet. Alle anderen Stationen überwacht man heute de facto mit SNMP.
  • Konfigurations-Management:
    Hier steht die Netzwerk- und systembezogene Konfiguration der Endgeräte und Rechner im Vordergrund, die je nach Gerätetyp gar nicht trennbar ist. Man muss dafür sorgen, von Verkabelung, Transceivern, Switches, PCs, Workstations, Hosts, und Servern (nur grobe Auswahl), aktuelle Konfigurationsdaten zu besitzen. Nur in einer geeigneten skalierbaren Datenbank kann man logische Namen erfassen, Objekte erweitern, löschen und ändern, Relationen zwischen diesen feststellen sowie zu mindestens Inaktivität oder Aktivität beschreiben. Konfigurations-Management ist die zentrale Funktion des Netzwerk-Betriebes und kostet die meiste Zeit. Leider sind gerade hier die Hilfsmittel noch im embryonalen Stadium. Viele Hersteller bieten z. B. für die Lösung dieses Problems proprietäre Datenbanken unter Windows an. Das ist natürlich völliger Schwachsinn, sobald man eine bestimmte Installationsgröße oder Dokumentationstiefe überschreitet. Dann passiert nämlich nur, dass die Datenbank plötzlich voll ist, und in den seltensten Fällen kann eine Daten rettende Migration auf eine größere Plattform stattfinden.
  • Sicherheits-Management:
    Dies ist ein komplexes Thema. Im Sicherheitsblock haben wir es in einem allgemeinen Kontext besprochen. In der Praxis helfen eher vergleichsweise primitive Maßnahmen: Zugangssicherung Serverraum, Hardwaresicherheitskonzept für Server, Bootschutz in den PCs, automatische Abschaltung von PCs im Falle nicht autorisierter Zugangsversuche, Passwort-Alterung, sichere Gerätetechnik, Virenschutz und Strukturkonzepte sowie Notfallplanung. Es gibt leider folgende unangenehme Tatsachen:

    • 1: Die meisten Schäden gehen von den autorisierten Benutzern aus.
    • 2: Je weniger die Benutzer vor Ort haben, desto weniger Unsinn können sie damit anstellen.
    • 3: Erst wenn alle »primitiven« Mechanismen für Datenschutz und Datensicherheit ausgeschöpft sind, lohnt es sich über »high«-Konzepte (complicated, sophisticated, cost) nachzudenken.

    Jedes Sicherheitskonzept basiert auf einer sogenannten Sicherheitspolitik, in der man festlegt, was man überhaupt will. Leider muss man feststellen, dass nur wenige in der Lage sind, eine solche Politik zu formulieren und auch die für Teilbereiche standardmäßig angebotenen Hilfsmittel oft kaum nutzen.

  • Performance Management:
    Nimmt bei PC-Netzen eher einen kleinen Teil der Gesamtaufgaben ein, da im Gegensatz zu Hostumgebungen wegen der Vielfalt von Abhängigkeiten kaum saubere Techniken vorhanden sind. Manchmal ist es ein falsch gesetzter Parameter, der in einer Kette von zwanzig oder mehr Komponenten alles verdirbt. Außerdem neigt man dazu, bei Engpässen einfach eine neue Komponente hinzuzunehmen, dies löst vielfach das Problem und ist darüber hinaus billiger als Nachdenken.
  • Accounting Management:
    Obwohl die Aufgabenstellung klar ist, gibt es nur sehr wenige Tools. Wenn sich die Erkenntnis durchsetzt, dass der Netzwerkbetrieb sehr teuer ist, wird man schnell zu Lösungen kommen und umso schneller, je besser die Festlegung der Relationenstruktur für die Benutzer auf den Betriebsmitteln ist. AM ist eine relativ unkritische Anwendung. Wichtiger ist da schon die Lizenzierung in Netzen, da die allgemeine Ausschüttungs-Mentalität auf Dauer nicht tragbar ist.
  • « Teil 67: Wichtige Netzwerk-Management ProduktstrategienTeil 69: Unangenehme Erfahrungen zum Netzwerk-Management »Teil 69: Privat: Die Zukunft des Netzwerk-, Service- und Anwendungs-Managements »


    zugeordnete Kategorien: LAN
    zugeordnete Tags:

    Sie fanden diesen Beitrag interessant? Sie können

    

    Anmerkungen, Fragen, Kommentare, Lob und Kritik:

    Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

    *

    .