Wide Area Netze WANs: Routing, Flusskontrolle und Switching

Kommentieren Drucken
Teil 10 von 71 aus der Serie "Professionelle Datenkommunikation"
Alle Artikel der Serie "Professionelle Datenkommunikation":

Aus der Struktur der WANs ergeben sich sofort verschiedene Aufgabenstellungen. Das Routing ist die Funktion, die für das Auffinden eines Weges durch ein noch so verzweigtes Netzwerk zuständig ist und letztlich die Kernfunktion der Network Layer. Es muss in einem Netz aber auch immer die Möglichkeit geben, Verkehrsflüsse zu kontrollieren und nötigenfalls einzuschränken, um nicht zu dauerhaften Blockadesituationen zu kommen. Schließlich ist es wichtig, in welcher Weise das Switching eigentlich durchgeführt wird. Wir stellen diese Problemkreise hier kompakt zusammen und kommen in späteren Folgen zur näheren Betrachtung einzelner Verfahren.

Bei Teilstreckennetzen, Netzwerken also mit Übersendung der Nachricht von einer Quelle zu einem Ziel über mehrere Zwischenknoten, muss man generell unter verschiedenen Randbedingungen eine in verschiedener Hinsicht optimale Wegwahl treffen. Das Routing-Problem kann wie folgt charakterisiert werden:

Wie lässt sich die vom Knoten i nach Knoten j zur Zeit t zu transportierende Nachrichtenmenge w unter Verwendung der Ressourcen des Netzes gemessen an einem oder mehreren Kriterien optimal transportieren?

Man kann die Routing-Verfahren zunächst grob in folgende Klassen einteilen:

Zentralisierte bzw. verteilte Techniken: Eine zentralisierte Technik benutzt eine Zentralstation, die die zur Wegwahl notwendigen Informationen hat, aufbereitet und dann die Wegwahlentscheidung trifft. Den Rechnern an den Zwischenknoten wird diese Entscheidung zwecks Ausführung übermittelt. Bei dezentralen Techniken treffen die Zwischenknoten ihre Entscheidung selbst.

Statische bzw. dynamische Verfahren: Rein statische Verfahren berechnen die Wegwahl ein für allemal aus a-priori-Vorgaben für die Randbedingungen des Netzes, wie Verkehrsaufkommen, Kapazität der Leitungen, Kapazität der Knoten, Kosten. Dies ist nur in wenigen Fällen zweckmäßig, da eine Änderung der Vorgaben z. B. durch Ausfall von Leitungen jederzeit später eintreten kann und dann keine Berücksichtigung mehr findet. Dynamische Verfahren heißen auch adaptiv, weil sie die Wegwahlentscheidung aufgrund aktueller Zustandsparameter des Netzwerkes treffen.

Lokale bzw. globale Verfahren: Lokale Verfahren berücksichtigen nur den Netzwerkzustand in einer unmittelbaren Umgebung. Dabei können sie leicht zu Fehlschlüssen gelangen. Globale Verfahren berücksichtigen den gesamten Netzzustand, was sehr aufwendig werden kann.

Deterministische bzw. stochastische Verfahren: Erstere Verfahren benutzen deterministische Entscheidungsregeln, letztere stochastische zur Bestimmung der Ausgangsleitung, über die eine Nachricht vom Zwischenknoten aus weitergesandt wird.

Beispiele für Routing-Verfahren in Corporate Networks wären OSPF und MPLS. Wir besprechen sie später.

Fluss- und Überlastkontrolle

Die Kapazität eines Netzwerkes ist nicht unbegrenzt. Zunächst wird es dazu neigen, alle ihm zur Übertragung angebotenen Pakete anzunehmen, was mehrere Konsequenzen haben kann:

  • Überschreitet die Anzahl der Pakete die dem Netz insgesamt aufgebürdet werden, einen gewissen Punkt, so wird das Netz überlastet und seine Leistung sinkt drastisch, weil es zu viel Zeit damit verbringen muss, Konflikte und Überlastsituationen zu behandeln.
  • Überschreitet die Anzahl der Pakete, die ein Sender auf einer logischen Verbindung bei wenig ausgelastetem Netz dem Netz übergibt, die Aufnahmekapazität des Empfängers, so wird dieser überlastet bzw. Pakete können nicht ordnungsgemäß ausgeliefert werden.

Maßnahmen gegen das erste Phänomen bezeichnen wir als Überlastkontrolle, solche gegen das zweite Phänomen als Flusskontrolle.

Flusskontrolle kann man einfach realisieren: In einer Wechselbeziehung vereinbaren die Stationen, die in aller Regel sowohl Sender als auch Empfänger sind, einen Flusskontrollparameter (Credits), der die Anzahl der Pakete angibt, die ein Sender senden darf, ohne von einem Empfänger eine Empfangsbestätigung erhalten zu haben. Bei jeder Sendung muss dann der Sender seine Credits herunter zählen, bei jeder Empfangsbestätigung (Acknowledgement, ACK) darf er seine Credits um das im ACK angegebene Maß (abhängig davon, ob es auf jedes Paket oder nur auf eine Folge von Paketen ein ACK gibt) aufstocken, jedoch nur bis zum ursprünglich vereinbarten Wert.

Fast Packet Switching und Frame Relay
Die Übertragungstechnik nach X.25 ist zu langsam für Anwendungen wie die Kopplung von LANs oder Hochleistungsrouter-Anbindung. In den letzten Jahren wurde die sogenannte schnelle Datenpaketvermittlung entwickelt. Sie ergänzt das Leistungsspektrum der Telco-Provider. Fast Packet Switching ist ein grundlegendes Verfahrensprinzip für die Hochgeschwindigkeits-Hochleistungskommunikation. Der hauptsächliche architekturelle Unterschied zwischen traditionellen paketvermittelnden Datennetzen und FPS-Netzen liegt in der Tiefe der Implementierung einer virtuellen Verbindung im Hinblick auf das OSI-Modell. Im traditionellen Netz muss eine Virtuelle Verbindung nicht nur in den Endsystemen, sondern auch in allen zwischenliegenden Systemen bis zur Schicht 3 (Network Layer) hochgezogen werden, die jedes Mal ein neues Teilstück des zwischen Quelle und Ziel zurückzulegenden Weges berechnet. Dies ist umständlich und entspricht dem Entwicklungsstand der frühen sechziger Jahre. Die mit klassischen Paketvermittlungsnetzen erzielbaren insgesamt geringen Datenraten hängen weniger mit den verwendeten technischen Übertragungsmedien und -systemen zusammen, als vielmehr mit dieser umständlichen Rechnerei in den Zwischenknoten.

Bei FPS-Netzen ist die Data Link Layer (wie auch bei LANs) unterteilt und zwar in die Fast Packet Relay FPR Sublayer, die Fast Packet Adaption FPA Sublayer und die Data Link Control Sublayer. Die FPR ist in der Lage, eine Ende-zu-Ende Verbindung in den Zwischensystemen ohne großartige Routing-Berechnung in der Vermittlungsschicht zu unterstützen. In einem klassischen Paketvermittlungsnetz wird darüber hinaus auch in jedem Zwischenknoten eine Fehler- und Flusskontrolle durchgeführt. Angesichts der immer besser werdenden Übertragungssysteme ist dies in zunehmendem Maße überflüssig. FPS-Netze führen üblicherweise in den Zwischenknoten keinerlei Fehler- und Flusskontrolle im Sinne alter Netze durch.

Das Grundprinzip der schnellen Paketvermittlung ist grundsätzlich nicht nur in öffentlichen Fernnetzen, sondern auch in privaten Fern- und Backbonenetzen sowie in MANs einzusetzen. Fast Packet Switching kann sodann unterteilt werden nach Betriebsverfahren. Die Betriebsverfahren sind Frame Relay und Cell Relay. Cell Relay ist das Betriebsverfahren für ATM im Rahmen des B-ISDN.

Frame-Relay wurde zunächst als Zubringerprotokoll für ISDN entwickelt und ist ein Standard für ein verbindungsorientiertes Protokoll zwischen einer Datenendeinrichtung und einer Datenkommunikationseinrichtung und soll auf diese Weise X.25 ablösen. Ein Frame-Relay-Netz führt bezüglich der angeschlossenen Stationen genau wie ein X.25-WAN ein Multiplexverfahren durch, behandelt also Datenströme zwischen Endeinrichtungen im Rahmen virtueller Schaltkreise für die Übertragung identifizierter Datenpakete. Frame-Relay-Pakete enthalten Adressen der OSI Schicht 2 und sind von variabler Länge. Frame-Relay erlaubt eine transparente Datenkommunikation und das Multiplexen unterschiedlicher logischer Verbindungen bei für WANs relativ hohen Datenraten zwischen 56 kBit/s und 45 Mbit/s. Zugelassen sind 56 kBit/s. in den USA, sowie N x 64 kBit/s. in Europa, 1,544 Mbit/s in den USA (Primärmultiplexrate) bzw. 2,048 Mbit/s in Europa sowie 34 und 45 Mbit/s, woran man die enge Bindung an ISDN erkennt.

Frame-Relay ist z.B. dazu geeignet, die ISDN-Kanäle D, B und H zu nutzen, aber auch T1 und E1-Leitungen. Es werden auf diesen Systemen festgeschaltete virtuelle Verbindungen (Permanent Virtual Circuits) vorausgesetzt. Die Frame Relay-Technik ist durch internationale Standards (CCITT/ANSI) festgelegt. Frame Relay führt zu einer synchronen Übertragungstechnik.

Ein Frame Relay Rahmen kann bis zu 8 kByte Nutzinformation übertragen, die durch eine 16-Bit-Prüfsumme abgesichert ist. Außer Flags für Beginn und Ende des Rahmens gibt es nur noch das DLCI-Feld (Data Link Connection Identifier) von 2-4 Bytes Länge, welches eine bestimmte virtuelle Verbindung (die der Rahmen benutzt) eindeutig beschreibt.

Wie bei konventionellen X.25-Datenpaketnetzen beschreibt Frame Relay u.a ein Nutzer-Netzwerk-Interface, welches FRI, Frame Relay Interface heißt (CCITT I.122 FRI-Spezifikation, CCITT Q.921 Frameformat). Der Frame Relay Dienst kann in Form von Punkt-zu-Punkt-Verbindungen (z.B. zwischen zwei Routern) oder an nutzereigenen Frame-Relay-Knoten (FR-Kommunikationsprozessoren) realisiert werden. Zwischen diesen Kommunikationsprozessoren können dann irgendwie geartete andere Leitungen oder Netze liegen, die natürlich mindestens die geforderte Frame Relay Datenrate unterstützen müssen. Der Frame Relay Dienst ist verbindungsorientiert auf PVC-Basis, allerdings arbeitet man auch an SVC-Spezifikationen, die spätestens 1996 erwartet werden.

Frame Relay bedeutet, dass ein Frame auf dem Weg von der Quelle zum Ziel von Übertragungsabschnitt zu Übertragungsabschnitt (Leitungen und IMPs) durchgeschaltet bzw. durchgeschleust wird. In den Zwischenknoten dient der in jedem Frame vorhandene DLCI-Identifikator als Routing-Information, um eine Folge von logischen Wegen zwischen den Knoten zu bilden.

Frame Relay setzt eine stabile Struktur der technischen Übertragungssysteme voraus und verzichtet zugunsten eines geringen Overheads im Gegensatz zu X.25 auf Fehlerkorrekturmöglichkeiten durch Wiederholung von Datenpaketen. Dies soll in höheren Schichten durchgeführt werden, die diese Mechanismen i.a. ebenfalls besitzen. Der Ansatz ist berechtigt, wenn man sich vor Augen hält, dass die ersten X.25-Netze auf Telefonleitungen implementiert wurden. Im Übrigen geht eine Überarbeitung von Protokollen für höhere Geschwindigkeiten schlechthin mit der Reduktion von Fehlererkennungs- und Korrekturmechanismen einher. Es ist daher viel einfacher in der Protokollstruktur.

Zusammenfassend umfasst die Funktionalität der Schicht 2 bei Frame-Relay-Netzen nur die Kernfunktionen Frame delimiting (Setzen der Flags, Berechnung der Prüfsumme an der Quelle), Multiplexing (Berechnung des DLCI) und Error Detection (Berechnung der Prüfsumme am Ziel. Die anderen Data-Link-Funktionen wie Flusskontrolle und Wiederaufsetzen nach Fehlern werden außerhalb des Frame-Relay-Netzes in den nutzenden Geräten ausgeführt. Allerdings sieht Frame Relay eine Backward und Forward Explicit Congestion Notification vor, die Stauerscheinungen im Netz anzeigt. BECN veranlasst einen Sender, die Inputrate zu drosseln, bei FECN muss der Framefluss in Gegenrichtung reduziert werden.

Bei der Benutzung eines Frame Relay-Netzes werden die nutzerspezifischen und nutzerprotokollspezifischen Frames eingekapselt, d.h. ohne Ansehen von Herkunft und Inhalt verpackt. Deshalb kann man jedes beliebige Data Link Protokoll wie HDLC, SDLC oder LLC »außen« benutzen, wenn man die in einem derartigen Protokoll vorhandenen Fehlerbehandlungsmechanismen wünscht oder benötigt.

Im Vergleich zur konventionellen Paketvermittlung ergeben sich eine geringere Verweilzeit (network delay) im Netz und eine bessere Bandbreitenausnutzung. Frame Relay stützt sich auf vorhandene Kommunikations-Infrastrukturen und ist relativ einfach zu realisieren. Der Übergang von beliebiger Netz-Technologie zu FR ist relativ unkompliziert.

Frame Relay WAN-Dienste werden in Deutschland nicht nur von der Telekom, sondern auch von anderen Providern angeboten. Es gibt komplette Migrationsstrategien für die Umsetzung älterer Strukturen, wie z.B. SNA-Netze auf Stand- oder Wählleitungen auf Frame Relay.

Die ATM-Technik (Asynchronous Transfer Mode) wurde mit dem Gedanken entwickelt, dass sehr kleine Datenpakete insgesamt schneller durchgeschaltet werden könnten als größere. Basis von ATM sind die sog. ATM-Zellen mit einer Länge von nur 64 Byte. Mittlerweile ist dieser Grundgedanke von der technischen Entwicklung überholt worden. Impulse kamen hier vor allem von den schnellen Ethernet-Varianten. Außerdem haben sich letztlich die vielen notwendigen Konversionen als unpraktisch erwiesen.

Letztlich basieren aber alle Neuentwicklungen der letzten 25 Jahre auf den optischen Transportnetzen OTN Optical Transport Networks. Heute sind besonders SONET (Synchronous Optical NETwork) und das sog. Carrier Ethernet interessant.

In den nächsten Teilen der Serie geht es um das OTN. SONET und Carrier Ethernet werden in der Serie zur RZ-Fernkopplung ausführlich behandelt. In einer späteren Folge kommen wir noch zu den Alternativen für den Teilnehmeranschluss.

« Teil 9: Wide Area Netze WANs: Struktur und BetriebsverfahrenTeil 11: Optische Netze »


zugeordnete Kategorien: LAN
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.