DC-History (3): Rise of the Internet

Kommentieren Drucken
Teil 35 von 71 aus der Serie "Professionelle Datenkommunikation"
Alle Artikel der Serie "Professionelle Datenkommunikation":

Der absolut bestimmende Faktor der Neunziger Jahre des letzten Jahrtausends ist die Verbreitung des Internets und der Beginn der Nutzung seiner Grundfunktionen von der einzelnen Privatperson bis hin zum Internationalen Großkonzern. Das hat wiederum zu neuen Modellen geführt, wie Informationsverarbeitung in Unternehmen und Organisationen zu handhaben ist und verschiedene, bis dahin wichtige Technologien, wie z.B. PC-Netze, verdrängt.

Die Entwicklung des Internets bis 1989 wurde ja bereits dargestellt. Seit 1993 experimentierte man mit ATM und 155 bzw. 622 Mbps. ATM, der asynchronous Transfer Mode ist eine Betriebsmethode für ein Netz, bei der sehr kleine Datencontainer verwendet werden. Damit hat man versucht, einen Kompromiss zwischen den für die digitale Übertragung von Telefongesprächen notwendigen und sinnvollen kleinen Datenmengen, die sich aus der Abtastung der analogen Signale ergeben (Paketlänge ca. 48 Byte) und den großen Paketen, wie man sie bei der Datenübertragung braucht (typischerweise 1000 – 1500 Byte) zu finden. Mit einer Paketlänge von 64 Byte lag ATM aber eher bei den Telefonen. IBM hatte eine riesige ATM-Strategie bis hin zu ATM-LANs, die den Token Ring ablösen sollten. Diese ganzen Bemühungen stellten sich als Schuss in den Ofen heraus. Die Datenübertragung mit ATM hat zu vielen Konversionsverlusten bei der Zerhackung und dem Wiederzusammenbau der Datenpakete geführt. Die Integration von Telefon- und Datenverkehr wurde erst viel später mit VoIP (Voice over IP) sinnvoll gelöst.

1995 zog sich die NFS endgültig aus dem Betrieb des Internet zurück, weil man das Netz wirklich nicht mehr als Forschungsnetz bezeichnen konnte: Waren bis 1993/94 mehr als die Hälfte der Internet-Nutzer Studenten, hat sich dies durch die Einführung von WWW und graphischen Benutzeroberflächen dramatisch geändert. Außerdem war die Kommerzialisierung trotz aller Hindernisse erheblich vorangeschritten. Die ersten Ansätze zu e-Business waren direkt überwiegend erfolgreich. Der ehemalige Internet-Backbone wurde von AOL (America Online) übernommen. Das Internet ging in die Hand meist kommerzieller Betreiber und der Backbone wird durch ein System von so genannten NAPs gebildet (Network Access Point). Die NAPs und die Leitungen zwischen ihnen werden von den großen Telefongesellschaften und Serviceprovidern wie AOL, MCI oder US-Sprint betrieben. Die NFS Mittel flossen in das Projekt für einen nationalen Breitbanddienst (Very High Speed Backbone Network Service VBNS) mit ATM und 622 Mbit/s. Im Jahr 2000 wurden sehr viele Internet-Backbone-Strecken auf 2, 4 oder 10 Gbps mit DWDM-Technik hochgerüstet. Die aggregate Gesamtleistung des US-Internet lag damit schon damals weit über 50 Terabit/s.

In Europa hinkte die Entwicklung hinterher, wichtige Netze mit Internet-Anbindung sind EARN, EUnet und der europäische Teil des CSNET, allesamt Netze zur Unterstützung von Wissenschaft und Forschung. Mittlerweile gründete sich auch ein europäischer Internet-Backbone EBONE. In Deutschland ist der DFN-Verein (Deutsches Forschungsnetz) ein wichtiger Ansprechpartner, der mit der Telekom das Wissenschaftsnetz WIN mit einem Schwerpunkt zunächst auf 2 Mbps-Anschlüssen etabliert hat. WIN ist ein Experimentierfeld. In 1996 wurden ATM-Strecken mit 34 und 155 Mbit/s aufgebaut und auch im Rahmen der Internet-Nutzung getestet. Daneben haben sich zögerlich auch in Deutschland weitere Anbieter für Internet-Zugänge wie MAZ, ECRC oder IBM etabliert. Schließlich bieten seit 1995 auch die in Deutschland operierenden Online-Dienste wie T-Online und der Mitbewerb Internet-Zugänge an. Die Zugänge sind heute allesamt recht kostengünstig, in der Praxis gab es aber damals oft herbe Enttäuschungen hinsichtlich der Wartezeiten und Übertragungsraten.

Das Internet rangierte damals in den fachunkundigen Medien irgendwo zwischen Beziehungskisten und fliegenden Untertassen. Es war für die technisch weniger interessierten oder ausgebildeten Manschen anscheinend zunächst schwierig zu fassen.

Man erschwert sich den Zugang zur Thematik ungemein, wenn man nicht zwei wichtige Grundsätze beherzigt:

  1. Das Internet ist kein Netz im eigentlichen Sinne, sondern ein Verbund zehntausender Einzelnetze mit – weitestgehend – gemeinsamen Protokollen der Schichten 3 bis 7.
  2. Das Internet hat keinen eigentlichen Besitzer oder Betreiber, vielmehr ist es ein soziales Instrument zur Kommunikation, das deshalb auf die vielfältigsten Arten und Weisen genutzt werden kann.
    Ein ganz tolles Buch (mit schnell über 2.000.000 Lesern) für den Einstieg ins Internet ist Ed Krol’s »The Whole Internet«. Das Buch liegt glücklicherweise mittlerweile auch in einer erstklassigen, teilweise kommentierten Übersetzung vor »Die Welt des Internet«.

Ed Krol hat es in diesem Buch auf den Punkt gebracht:
»Einen Begriff vom Internet zu bekommen, ähnelt sehr dem Versuch, eine Handvoll Götterspeise zu greifen. Je fester Sie zugreifen, desto mehr läuft Ihnen am Arm herunter. Sie müssen Götterspeise aber nicht auf diese Weise essen, sie brauchen nur das richtige Hilfsmittel: einen Löffel. … Das gleiche gilt für das Internet … Sie müssen nur die richtigen Hilfsprogramme kennen und anfangen, damit zu arbeiten.«
Und genau das war der Schlüssel zum Erfolg: jeder, der lesen und schreiben kann, kann auch das Internet benutzen, ohne zu verstehen, wie es funktioniert, wenn man ihn in die grundsätzliche Bedienung eines Browsers einweiht!

Das kannten die Menschen schon von der Office-Software. Auch hier konnte man ja nach einem übersichtlichen Einarbeitungsaufwand damit beginnen, Texte zu schreiben, abzulegen oder zu drucken. Das Internet hat in diesen Jahren genau das erfolgreich weitergeführt, was schon ein Jahrzehnt zuvor den PC so beliebt gemacht hat: relativ einfache Bedienung ohne die Notwendigkeit besonders spezifischer Technologie-Kenntnisse.

Das Internet basiert auf den Protokollen der TCP/IP-Familie. Die wesentlichen anwendungsorientierten Grunddienste des klassischen Internet sind also die Protokolle telnet für das Einloggen in einen fremden Rechner, ftp für den Zugriff auf Dateien und SMTP für electronic Mail. In der Tat, ergänzt mit einem Name-Service, der dafür sorgt, dass man Dinge im noch so verzweigten Netz eindeutig benennen kann, und ein paar Suchhilfsmitteln war dies auch bis vor wenigen Jahren die Grundstruktur des Internet. Das Internet ist in den 90ern schon fast drei Jahrzehnte alt, nur lange Zeit hat sich vor allem hier kaum jemand dafür interessiert. Denn die zeilenorientierte Benutzung dieser Dienste ist nicht besonders komfortabel. Außerdem hängt die Entwicklung der Internet-Gemeinde, -Protokolle, und -Nutzung eng mit der Entwicklung des Betriebssystems UNIX zusammen. UNIX kann zwar ein sehr gutes Betriebssystem sein, aber speziell in Deutschland hat es nicht so viele Freunde. Die Internet-Protokolle sind schon seit sehr langer Zeit in fast jedem UNIX-System enthalten. UNIX-Maschinen über irgendwelche Netze miteinander zu verbinden, und dann Internet-Protokolle für die interne und externe Kommunikation zu verwenden, liegt also nahe.

Den wirklichen Durchbruch und seine heutige Popularität hat Internet aber erst durch zwei Techniken erhalten: die universelle und leichte Verknüpfungsmöglichkeit von Informationen durch das sogenannte World Wide Web (WWW, W3) und die Nutzungsmöglichkeit der Internet- und WWW-Ressourcen durch graphische Oberflächen, die Browser.

Erst diese Techniken machen das Internet für alle einigermaßen geradeaus denkenden Nichtspezialisten einfach benutzbar und somit zum potentiellen Massenmedium.

Die WWW-Technik ermöglicht es, praktisch unendlich beliebige (und viele) Verbindungen zwischen Informationen herzustellen, die sog. Links. In einem beliebigen Dokument, was man z.B. nachher an einem Bildschirm lesen kann, lassen sich Ausdrücke hervorheben. Jede Hervorhebung entspricht einem Link. Klickt man die Hervorhebung an, so kommt man zu einem weiteren Dokument, welches z.B. den im ersten Dokument hervorgehobenen Begriff weiter erklärt und selbst wieder Links haben kann. Wenn man dann weit genug gekommen ist und die gewünschte »Erklärungstiefe« erreicht hat, kann man wieder zurück, entweder rückwärts durch alle Dokumente, die man bereits hatte, oder direkt durch Aufruf von »Home«, das ist die Umgebung, in der man gestartet ist.

Die WWW-Technik hat auch den Begriff »Internet-Surfen« geprägt. Vor WWW musste man den Aufenthaltsort jeder Information kennen oder suchen lassen. Das ist etwa so, als ob ein Surfer auf einem windlosen und absolut ruhigen See einen Hubschrauber beauftragt, Wind und ein paar Wellen zu machen, um voranzukommen. Diese Methode ist ökologisch und ökonomisch offensichtlich wenig sinnvoll. Viel besser sind doch Wind und Wellen, angepasst an die Fähigkeiten des Surfers. Ein leichter Wind sorgt für Bewegung, die Nutzung von Wellenbergen und Wellentälern für Abwechslung und Vorankommen. Beim WWW ist dies ähnlich: jeder Link entspricht der Möglichkeit, leicht und bequem von einem Wellenberg (der Information, wo man gerade ist) zu einem anderen Wellenberg (der Information, wo man hinmöchte) zu kommen. Allerdings ist WWW noch viel sicherer: Man kann es auch ohne Gleichgewichtssinn und Schwimmkenntnisse benutzen und die »Home«-Taste hat sich so mancher Surfer schon äußerst sehnlich gewünscht.

« Teil 34: IPTeil 36: Anwendungsunterstützung mit TCP/IP-Protokollen »


zugeordnete Kategorien: LAN, Web-Techniken
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.