Lokale Netze

Kommentieren Drucken
Teil 6 von 71 aus der Serie "Professionelle Datenkommunikation"
Alle Artikel der Serie "Professionelle Datenkommunikation":

Lokale Netze sind die Keimzelle moderner Datenverarbeitung. Sie unterstützen die Arbeit des Einzelnen, des Teams und des gesamten Unternehmens. Sie heben die Grenzen der einzelnen Arbeitsplätze auf und helfen, Medienbrüche zu vermeiden. Letztlich bringen sie jedwede Verarbeitungsleistung aus dem RZ eines Unternehmens, aus anderen Unternehmensnetzen und aus dem Internet zu den Benutzern.

LANs gibt es jetzt auch schon weit über 30 Jahre. Kein Wunder also, dass vielfältige Systeme in unterschiedlichen Leistungsstufen entstanden sind. Wir beschränken uns hier nur auf diejenigen Systeme, die heute in Unternehmen und Organisationen in hohem Maße eingesetzt werden und richten am Ende den Blick auch auf die Zukunft der lokalen Vernetzung. In diesem Kapitel bleiben wir bei leitungsgebundenen Systemen mit metallischen Leitern oder einfachen Lichtwellenleitern. Drahtlose LANs und spezielle Systeme, wie sie z.B. in einem RZ vorkommen, werden später besprochen.

Früher, vor mehr als 20 Jahren, gab es eindeutige Beziehungen zwischen Übertragungsmedium, Übertragungssystem, LAN-Typ, Protokollstack und Betriebssoftware, z. B. »Koaxialkabel, Übertragung mit Manchester Codierung, CMSA/CD (Ethernet), IPX/SPX (Novell Protokollstack), NetWare«, die aber letztlich alle enge technische Grenzen hatten.

Heute möchte man in großen Unternehmen auf einem universellen Verkabelungssystem die wichtigsten LAN-Typen, Telefonie und weitere Dienste modular und flächendeckend unterstützen, unterschiedliche LAN-Typen in Technikräumen auf die Datensteckdosen schalten, diese unterschiedlichen LANs in sog. multifunktionalen Hubs oder Switches realisieren und auf einem derartigen LAN viele logische Verbindungen aus ggf. unterschiedlichen Protokollstacks laufen lassen, um die diversen anwendungsunterstützenden Grunddienste angemessen zu realisieren.

Switches sind Geräte, die zwar nach außen hin den Stationen gegenüber so aussehen wie ein traditionelles LAN und auch die dort definierten Paketformate akzeptieren und bearbeiten, innen aber mit allermodernster Technik ausgerüstet und in der Lage sind, jede Station mit der vollen Bandbreite zu bedienen, so als sei diese Station alleine im Netz.

Im Zuge der Dezentralisierung der Datenverarbeitung weg vom Großrechner hin zu kleineren, untereinander vernetzten Systemen, ist das LAN zur zentralen Schaltstelle geworden. Somit ist ein Unternehmen oder eine Organisation in zunehmendem Maße abhängig von seinem LAN. Damit einher geht eine sozusagen tägliche Steigerung der Anzahl der Endgeräte an einem Netz. Neben neuen Endgeräten, die direkt für eine Vernetzung vorgesehen sind, werden auch die älteren Systeme systematisch in die Netze integriert.

Dies führt wiederum dazu, dass Netze in völligem Gegensatz zu früher auch bis an ihre Grenzen belastet werden, was wiederum die Einführung neuer kommunikationsintensiver Anwendungen (z. B. Multi-Media oder PC-Video-Konferenzen) auf älteren Netzkonzepten erschwert oder unmöglich macht. Also muss man über Subnetzbildung (Unterteilung der bestehenden LANs in so kleine Einzelteile, dass es innerhalb dieser Einzelteile nicht zur Überlastung kommen kann), Backbones (eigene Netze, die i. W. die Subnetze zusammenschalten) und neue Formen der LAN-Technik (die einfach mehr können) nachdenken.

Weitere Probleme ergeben sich aus der Entwicklung der Basis-Technologien und dem Nachrichtenverkehr moderner Endgeräte. Im Laufe der letzten zehn Jahre hat sich die Zahl der Chips, die für den Aufbau eines PCs oder Servers notwendig waren, dramatisch reduziert und die Chips wurden erheblich leistungsfähiger. Dies bedeutet, dass sich das Verhältnis zwischen Vernetzungstechnologie und Nutzern dieser Vernetzung im letzten Jahrzehnt deutlich zu Ungunsten der Vernetzung verschoben hat. Eine immer einfachere physische Konstruktion der Endgeräte, wie sie mit steigendem Integrationsgrad einhergeht, führt zu einer drastischen Verbilligung der Technik, wie wir wissen. Dies führt aber wiederum zu mehr installierten Geräten und zu leistungsfähigeren Geräten pro Installation. Hieraus resultieren die Möglichkeit anspruchsvollerer Anwendungen, da ja sonst die Kapazität der Arbeitsplatzrechner verschwendet wäre, und Konzepte wie Desktop-Virtualisierung, bei denen man sich überlegt, inwiefern die nunmehr billigere PC-Leistung dazu genutzt werden kann, teurere Systeme ganz abzuschaffen oder zu entlasten. All dies wiederum zieht ein höheres Verkehrsaufkommen pro Station nach sich.

Lokale Netze sind Transport-Subsysteme im Rahmen einer Netzwerkarchitektur. Die Unterschiede zu anderen Netztypen ergeben sich lediglich im Rahmen der unteren Schichten des OSI-Referenzmodells. Ab der Schicht 4 spätestes darf eine Unterscheidung nicht mehr vorgenommen werden, da ja gerade die Einheitlichkeit und das »Ende-zu-Ende«-Argument für diese und die höheren Schichten verbindlich ist, damit eine Anwendung oder ein Anwender sich nicht mehr näher mit diesen technischen Einzelheiten und Unterschieden in der Netzwerkinfrastruktur verschiedener Netze auseinandersetzen müssen.

Ethernet ist heute die dominierende LAN-Technologie und auf dem besten Wege, auch in anderen Netzwerkbereichen die einzige wichtige Technologie zu werden.

Deshalb werden wir hier ausschließlich über Ethernet sprechen. Alle anderen Systeme, wie Token Ring, FDDI oder ATM kann der Interessent bei Interesse in der historischen Literatur nachlesen.

LAN-Topologien und Übertragungsmedien

Für Lokale Netze haben sich im Wesentlichen drei Topologien etabliert: Stern, Ring und Bus.

Bei einem Sternsystem laufen alle Nachrichten in Richtung eines zentralen Umsetzers. In der Anfangszeit der Sternnetze hat man an vermittelnde Umsetzer wie bei Nebenstellenanlagen gedacht. Heute benutzt man die Sternstruktur vielmehr im Zusammenhang mit Switches, bei denen von jeder angeschlossenen Station eine Leitung zum Hub und wieder zurück führt. Sternsysteme werden meist im Zusammenhang mit einer strukturierten UTP/S-STP/STP-Verkabelung benutzt.

Bussysteme gehen von dem Gedanken eines Mediums aus, welches in gewissen Abständen angezapft wird. Die Nachricht, die eine Station aussendet, wandert dann wie beim Radio mit dem Medium Luft in allen Richtungen über das Kabel. Diese Broadcastingtechnik ist zwar eine nachrichtentechnische Geradeauslösung, hat sich aber im ersten PC-LAN-Jahrzehnt stark am Markt durchgesetzt. Der Bus ist leicht erweiterbar, indem man einfach eine weitere Anzapfung zu den bereits bestehenden baut. Bussysteme kann man auch mit Hub- oder Switch-Sternen nachbilden, wenn keine Koaxial-Verkabelung gewünscht wird.

Busse, Sterne und Stern-Busse sowie alle anderen denkbaren schleifenfreien Topologien sind Diffusionsnetze.

Die andere LAN-Gruppe sind die Ring-LANs, bei denen die Stationen sozusagen »in Reihe« geschaltet werden und der erste mit dem letzten verbunden wird. Bei heutigen technischen Ausführungen wandern die Nachrichten jedoch nicht als Ganzes von Station zu Station, sondern an jeder Station existiert ein sog. Ring-Interface, welches einige wenige Bits Speicher besitzt. Diese Speicherplätze hintereinander geschaltet bilden den Ring, für die Darstellung des Signals sind die Leitungen zwischen den Stationen nicht relevant. Um aber die Umlaufzeit nicht unnötig zu erhöhen, dürfen die einzelnen Speicher nicht allzu groß und die Anzahl der Stationen nicht allzu hoch sein.

Wie bereits erwähnt, entfallen viele topologische Grundüberlegungen im Rahmen einer angemessenen universellen Verkabelungsstrategie, wie wir noch sehen werden. Es bleibt jedoch der Unterschied zwischen schleifenfreien und schleifenhaltigen LANs.

LAN-Steuerungsverfahren

Verkabelung, Sender und Empfänger alleine machen noch kein LAN aus. Erst ein geeignetes Steuerungsverfahren für den LAN-Zugang macht die LANs für eine Gruppe von Anwendern auch benutzbar. Zentrales Problem ist die Regelung des wechselseitigen Ausschlusses auf dem prinzipiell jederzeit allgemein benutzbaren Übertragungsmedium. Wenn nämlich mehr als eine Station gleichzeitig sendet, entsteht eine Signalmischung und somit Unfug auf der Leitung.

Die wichtigsten Elemente der Sicherungsschicht sind die Zugriffssteuerungsmethoden für den gemeinsamen, geordneten Zugriff auf das wechselseitig ausschließlich zu benutzende Bus- oder Ring-Medium.

Sowohl bei Bussen als auch bei Ringen ist es so, dass bei den im Rahmen des IEEE 802-Standards betrachteten Übertragungsraten die Anzahl der zu einem Zeitpunkt gleichzeitig auf dem Netz darstellbaren Bits üblicherweise geringer ist als die durchschnittliche Anzahl der Bits eines Datenpaketes. Dies ändert sich erst bei sehr schnellen Netzen, so ca. ab 100 Mbit/s.

Dies zieht nach sich, dass zu einer Zeit nur eine Station senden sollte, da es sonst Durcheinander auf dem Medium gibt.

Ein weiteres wesentliches Element ist die Logische Verbindungskontrolle, die die Ressourcen der Zugriffskontroll- und Übertragungseinrichtungen zu einer abstrakten Paketübertragungsressource, auf die sich die höheren Schichten beziehen können, formt.

Eine Klassifizierung Lokaler Netze kann über die Steuerungsalgorithmen der Sicherungsschicht geschehen, wobei sich die Verfahren CSMA/CD (Wettbewerb mit Kollisionskontrolle, Bus, Baum) und Token Passing (Weitergabe einer physikalischen (Ring) bzw. logischen Sendeberechtigung (Bus) nach Abschluss der eigenen Sendung) durchgesetzt haben. Token Passing besprechen wir hier nicht weiter, weil es die Systeme, die es benutzen würden, nicht mehr gibt.

Bei Switches benötigt man die Steuerungsverfahren nicht mehr, weil es dem Switch egal ist, wie viele Stationen gleichzeitig senden, er kann das meist komplett herum schalten und weitervermitteln. Aber: Niemand möchte für seine PCs neue Adapterkarten und Software kaufen, nur weil das alte Netz zu klein geworden ist und man einen kleinen Hub durch einen starken Switch ersetzt. Damit das funktioniert, muss der Switch natürlich so tun, als sei er ein normales Netz. Er »antwortet« also genauso auf die Signale des Steuerungsverfahrens als würde er dies noch benutzen. Eine Notlüge sozusagen.

CSMA-Steuerungsverfahren

CSMA ist eine Abkürzung für Carrier Sense Multiple Access, was bedeutet, dass sich die Stationen dadurch synchronisieren, dass eine sendewillige Station zunächst den Kanal abhört (Carrier Sensing), bevor sie sendet. Beim CSMA/CD (CD für Collision Detection) -Verfahren darf eine Station nur dann senden, wenn das Medium nicht schon durch eine andere Station belegt ist. Ist das Medium belegt, wartet die Station so lange, bis das Medium frei ist und sie senden kann. Aufschluss über den Zustand des Mediums bekommt die Station durch das Abhören. Warten nun mehrere Stationen darauf, Nachrichten über das LAN zu übertragen, kann es passieren, dass mehrere Stationen gleichzeitig ihre Daten auf das Medium senden, da sie alle zum selben Zeitpunkt das LAN als »frei« erkennen. Es kommt zu einer Kollision der Nachrichten, die durch das Überlagern der einzelnen Informationen als Störsignal erkannt wird. Da die Station beim Senden das LAN auch noch abhört, erkennt sie die Kollision und sendet nicht mehr weiter (dadurch wird die Zeit des Fehlerauftretens verkürzt).

Die Zeit, in der eine Kollision passieren kann, ist die Zeit, die das Signal maximal braucht, um sich von einer Station zu einer anderen auszubreiten. (Der Leser stelle sich vor, dass Station A am einen Ende des Busses anfängt zu senden; kurz bevor das Signal die Station B am anderen Ende des Busses erreicht hat, fängt diese ihrerseits an zu senden. Es kommt zur Kollision.) Die Zeit, die maximal bis zum Erkennen einer Kollision vergeht, ist doppelt so lang: Das überlagerte Signal muss ja bis zur ursprünglich als erste sendenden Station zurückkommen, damit auch sie die Kollision erkennt. Diese Zeit wird auch Kollisionsfenster genannt. Ist eine Sendezeit ohne Kollision vergangen, die größer als das Kollisionsfenster ist, so kann keine Kollision mehr eintreten, da dann alle Stationen, die unter Umständen senden wollen könnten, den Kanal als belegt erkennen.

Nach einer Kollision muss neu gesendet werden. Damit nicht wieder beide Stationen gleichzeitig senden und eine neue Kollision so schon vorprogrammiert ist, wird in jeder von der Kollision betroffenen Station der sogenannte Binary Exponential Backoff Algorithmus angewendet: Sei das Kollisionsfenster k. Zufallszahl zwischen 0 und 2E10 wird generiert. Diese Zufallszahl sei i. Die Station wartet nun i * k, bevor sie wieder sendet. Da bei zwei Stationen die Wahrscheinlichkeit sehr gering ist, dass sie dieselbe Zufallszahl generieren, hat die Station mit der kleineren Zahl den Kanal erobert, wenn die andere wieder zu senden versucht. Es tritt keine erneute Kollision auf, die Station muss weiter warten. Kommt es beim nächsten Versuch, die Daten über das Medium zu übertragen, jedoch wieder zu einer Kollision, wird das Intervall, aus dem die Wartezeit bis zu einem erneuten Versuch gewürfelt wird, vergrößert.

Beim 16. erfolglosen Versuch, auf das Medium zuzugreifen, bricht das Verfahren ab und der Anwendung wird mitgeteilt, dass das Medium nicht verfügbar ist.

Dieser offensichtliche Nachteil des Verfahrens wird dadurch gemildert, dass im Normalfall das Medium häufig frei ist, also relativ selten Kollisionen auftreten, und die Daten direkt ohne Verzögerung wie bei den anderen Verfahren übertragen werden können.

Auch das CSMA/CD-Verfahren wird heute angesichts der Switches nicht mehr gebraucht. Die einzige heute noch in Produkten existente Abart ist das DCF-Verfahren bei Wireless LANs. Es funktioniert wie die oben beschriebene Variante mit den entsprechenden Nachteilen.

« Teil 5: Metallische Leiter und optische ÜbertragungstechnikTeil 7: Standards für lokale Netze »


zugeordnete Kategorien: LAN
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.