DC-History (2): die wilden 80er

Kommentieren Drucken
Teil 31 von 71 aus der Serie "Professionelle Datenkommunikation"
Alle Artikel der Serie "Professionelle Datenkommunikation":

Mitte der 80er Jahre kam dann (ausgerechnet von IBM) ein Gerät, welches die Welt (nicht nur der DV) nachhaltig, dauerhaft und bis zum heutigen Tage verändert hat: der PC. Der Gedanke, nunmehr in Unternehmen alles mit PCs zu machen, musste aus praktischen Gründen schnell dahin gehend überarbeitet werden, PCs und die bisherige Hostwelt zu einem integrierten Informationssystem zu machen. Der Siegeszug der Lokalen Netze begann durch die Einführung der sog. PC-Netze.

In den achtziger Jahren haben die meisten heutigen Netzwerk-Profis noch darüber sinniert, ob es nicht vielleicht eine Welt außerhalb des Laufstalls gibt. Die gab es und in technologischer Hinsicht war sie auch sehr bewegt.

Die Möglichkeit, mit dem PC Rechenleistung für einfache Aufgaben auch ohne einen teuren Host in einem teuren Rechenzentrum sozusagen für jedermann erschwinglich zur Verfügung stellen zu können, hat das Verständnis sämtlicher Prozesse in einem Unternehmen mehr oder minder von heute auf morgen auf den Kopf gestellt. So sehr, dass sogar seit langem bestehende Berufsbilder, wie das der Sekretärin, völlig verändert oder überflüssig gemacht wurden. Der PC war eine informationelle Revolution, die in ihrer Wirkung der industriellen Revolution durch das Aufkommen der Dampfmaschine gleichgestellt werden kann.

Bei einem solchen Umbruch ist es verständlich und nachvollziehbar, dass es zu Beginn zu groben Irrtümern kommen kann. Einer dieser Irrtümer war die rein dezentrale Datenverarbeitung, bei der man sich vorgestellt hat, einfach alles auf isolierten PCs machen zu können.

Ihre Vor- und Nachteile zum damaligen Zeitpunkt lassen sich schnell auflisten:

  • Technische Struktur: isoliert
  • Kontrollstruktur: gar keine
  • Vorteile: vielfältige, preiswerte SW, Ergonomie, hinreichende Leistung, beliebige Konfigurierbarkeit
  • Nachteile: Kompatibilitätsprobleme, Datenschutz/Datensicherheit: Steinzeit, Treibersammlung als „Betriebssystem“ (DOS), verstreute Informationen
  • Ohne Struktur keine Steuerung

Schnell hat man in Unternehmen gelernt, dass einzelne PCs nicht in der Lage sind, Prozesse zu unterstützen, die an mehr als einem Arbeitsplatz bearbeitet werden. Man benötigte wenigstens eine gemeinsame Stelle, an der Daten so abgelegt werden konnten, dass sie von mehreren PCs aus in sinnvoller Weise wechselseitig ausgeschlossen genutzt werden konnten. Außerdem war es unpraktisch, damals noch teure periphere Geräte wie Drucker für jeden PC einzeln haben zu müssen. So entstanden die ersten PC-Netze. Zentrale Komponente dieser Netze war ein sog. „Server“, im einfachsten Fall ein etwas stärker ausgelegter PC. Es gab schnell Hunderttausende Installationen mit IBM PCs als Arbeitsplätzen und den stärkeren XT-Modellen als Server. Verbunden wurden diese Rechner mit einem LAN, vorwiegend ein einfaches Ethernet oder Token Ring. Spannender als diese Geräte als solche waren die sog. PC-Netz-Betriebssysteme, die von sehr vielen Herstellern wie IBM, 3Com oder Novell angeboten wurden. Es gab auch Experimente mit UNIX-Varianten. Netware von Novell hatte über ein paar Jahre immer etwas mehr praktisch nutzbare Funktionen als die anderen. Hierzu gehörte schnell die Möglichkeit, einen weiteren Server eingliedern zu können. Fiel einer der Server aus, konnte der andere die Arbeit nach damaligen Maßstäben unterbrechungsfrei und ohne Verlust von Daten fortsetzen.

PC-Netze waren ein echter Hype. Meine damalige Lieblingsdemo war es einfach, in einen seines Gehäuse-Oberteils beraubten Server einen schweren Amboss knallen zu lassen. Dann konnte man sehen, dass die Anwendung, die Server-gestützt lief, sofort von dem anderen Server übernommen wurde.

Ein ganz wesentlicher Schub kam aus einer Ecke, die damals kaum beachtet wurde: kleine und mittlere Unternehmen von Anwaltskanzleien, Arztpraxen, Grafik-Büros bis hin zu durchaus nennenswerten Mittelständlern. Für sie war ein IBM-Host unerschwinglich und unwirtschaftlich. Also wurden sie von der interessierten Industrie mit einer Fülle von Spezial-Lösungen überflutet, die allesamt für das, was sie leisteten, viel zu teuer waren und überdies so konstruiert waren, dass ein Wechsel des Lieferanten praktisch ausgeschlossen war. Angefangen vom unsäglichen Magnetkarten (!!!)-Buchhaltungssystem von Kienzle über eine ganze Palette zum Rest der Welt inkompatibler Systeme von Nixdorf bis hin zu den schönen, aber teuren VAX-Systemen von DEC gab es wirklich eine heute unvorstellbare Vielfalt.

« Teil 30: DC-History (1): die geordneten 70erTeil 32: Übersicht über TCP/IP »


zugeordnete Kategorien: Data Center, Endgeräte, LAN
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.