Quality of Service QoS in LAN und WAN: wo, wie und wann

Kommentieren Drucken

Das Thema QoS ist nach Jahren der Ruhe wieder auf der Tagesordnung. Gleichzeitig ist die Situation komplexer geworden und die Umsetzung von QoS deutlich aufwendiger und mit mehr Verfahren verknüpft als in der Vergangenheit:

  • wie kann das sein, sind die modernen 10 bis 100 Gigabit-Netzwerke nicht ein Garant für immer verfügbare Bandbreite und Qualität?
  • und welche Verfahren kommen wann und wo zum Einsatz?
  • lassen sich QoS-Verfahren weiterhin durch Bandbreite vermeiden?

Die Stabilisierung der Datenraten Ende der 90er Jahre und die Etablierung eines Gigabit-Designs von den Endgeräten bis zu den Servern hat zu einer Situation geführt, in der QoS-Maßnahmen in Netzwerken nur noch einen beschränkten Nutzen in sehr ausgewählten Fällen hatten. Doch seitdem hat sich vieles verändert:

  • wir haben neue Nutzungssituationen speziell im Rechenzentrum und bei der Verbindung mehrerer Rechenzentren. Durch die Trennung von Server und Speicher entstehen sehr hohe und sehr sensible Datenströme, deren Qualität und Performance sich direkt auf die meisten Datenbank-Anwendungen auswirken kann
  • Virtualisierungs-Architekturen können in Kombination mit Hochverfügbarkeits-Architekturen hohe Anforderungen an Netzwerke stellen. Hohe Datenströme werden kombiniert mit einem Bedarf an hoher Qualität
  • zwar gibt es inzwischen mit 10/40/100 Gigabit sehr hohe Bandbreiten und die 400 Gbit/s stehen vor der Tür. Aber wir sind in einem Übergangsprozess in diese Bandbreiten und während des Übergangs können in den Unternehmen sehr unglückliche Kombinationen aus alten langsameren Ports und neuen sehr schnellen Ports entstehen
  • auch im WAN hat sich die Bandbreiten-Situation deutlich verbessert. Doch gleichzeitig nehmen die Anforderungen an Bandbreite immer mehr zu. Kombiniert mit einem zunehmend starken Video- und UC-Anteil ist ein modernes WAN-Design durchaus eine große Herausforderung
  • auch im LAN können hohe Bandbreiten zusammen mit „einfacher“ Priorisierung dazu führen, dass durch vorrangige Bearbeitung die Übertragungstaktung von Voice und Video aufgehoben wird und Übertragungs-Bursts Ende-zu-Ende den Jitter erhöhen. Insbesondere für Hochqualitäts-Video und HD Voice ist dies nicht wünschenswert.
  • mit der starken Zunahme der mobilen Endgeräte verschiebt sich der Schwerpunkt im Access Bereich weg von den Kabeln und hin zu Wireless LAN. WLAN ist ein shared Medium und gleichzeitig begrenzt in der Bandbreite
  • die WLAN Problematik wird durch das Internet of Things weiter zunehmen. Wir werden eine neue Welle von MESH-WLANs gerade in Städten und Produktions-Umgebungen sehen, um einen flächendeckenden Zugriff auf intelligente Sensoren zu ermöglichen. MESHs reduzieren aber die Bandbreite und lassen sich nur bedingt störungsfrei mit starken Datenströmen wie die aus Überwachungskameras kombinieren

Damit sind wir genau bei den typischen Ursachen für eine neue Welle von QoS-Situationen:

  • in der Vergangenheit mussten häufig kleinere Datenströme wie Sprache oder Datenbank-Zugriffe gegen größere im Sinne von Datei-Transfers geschützt werden. Das war relativ einfach und irgendwie war immer eine Lücke für die kleinen Sprachpakete da, so dass auch in stark belasteten Netzwerken Sprachanwendungen ohne QoS sauber funktioniert haben
  • jetzt müssen wir mit dem Verkehr zwischen Server und Speicher relativ große Datenströme schützen. Moderne SSD-Speicherlösungen unterstützen Millionen von Transaktionen pro Sekunde, da darf das Netzwerk nicht zum Blockierer von Datenbank-Anwendungen werden. Der Schutz solcher intensiven Datenströme ist aber mit den traditionellen Verfahren gar nicht möglich
  • wir haben verstärkt den Bedarf nach einer Ende-zu-Ende-Kontrolle in unseren Netzwerken. Diese war historisch gesehen nicht erfolgreich und jeder Versuch der Einführung ist bisher gescheitert. Aber gerade bei großen Datenströmen, die zu schützen sind, entsteht das Thema wieder
  • die Vermischung sehr unterschiedlicher Bandbreiten in Netzwerken von wenigen MBit/s im WLAN bis hin zu 100 Gbit/s führt zu fast unvermeidbaren Überbuchungsproblemen. Hier sind neue Lösungen gefordert
  • Puffer in Switch-Systemen ist sehr teuer und ein wesentlicher Teil der Herstellungskosten eines Switches. Naturgemäß haben wir deshalb Switche in unseren Netzwerken, deren Puffer relativ schnell gefüllt sind. Paketverluste sind die unvermeidbare Folge. Kombiniert man das mit 10/40/100 Gigabit, dann stellt das hohe Anforderungen an die Planung und an den Betrieb
  • generell sind Paketverluste auch im WAN wieder ein Thema. Sie führen zwangsläufig zu einer Beeinträchtigung gerade von Sprache und Video-Anwendungen. Zwar haben wir geeignete Codecs, um auf solche Verlustsituationen zu reagieren, aber diese sind immer mit einer Reduzierung der Qualität verbunden

Die bisherigen Beispiele zeigen wie wichtig das Thema ist. Tatsächlich wird eines der zentralen Probleme von QoS in den Beispielen aber nicht benannt: die Integration der Applikation. Im Moment kann eine Applikation weder sehen noch beeinflussen wie die Qualitäts-Situation im Netzwerk ist. Aber auch dafür gibt es inzwischen eine Lösung: Software Defined Networking. Auch wenn es bisher keine wirklich ausgereifte Lösung gibt, so gibt es doch eine ganze Reihe von Hybridlösungen, die genau das hier angesprochene Problem lösen: es ist damit möglich, einer speziellen Applikationen eine besondere Kontrolle über das Netzwerk zu geben. Ob das immer Sinn macht ist eine andere Frage (was passiert, wenn dies zwei Applikationen gleichzeitig wollen, wer entscheidet dann? Diese Frage wird im Rahmen der Orchestrierung von SDN diskutiert und Hersteller wie Cisco haben Lösungsansätze dazu, einfache SDN-Lösungen zum Beispiel für Microsoft Lync gibt es von HP).

Die Diskussion der veränderten Nutzungssituationen und den damit verbundenen möglichen Ursachen für eine QoS-Lösung unterstreichen vor allem eines: wir reden hier über eine Liste von Spezialfällen in genau definierten Umgebungen und Anwendungsfällen. So ist es nicht verwunderlich, dass die Wiederbelebung der QoS-Diskussion mit einer ganzen Welle neuer Verfahren einher geht. Eine Rechenzentrums-Umgebung stellt eben andere Anforderungen als ein WAN oder ein WLAN.

Für den Planer und Betreiber von Netzwerken ist das mit großen Herausforderungen verbunden:

  • die verschiedenen Verfahren müssen beherrscht werden und eine Entscheidung über ihre Nutzung muss den Bedarf der Umgebung genau wieder spiegeln
  • es sollte eine Reduzierung auf das wirklich Notwendige erfolgen
  • der Betrieb ist komplexer geworden. QoS ist immer untrennbar mit Monitoring verbunden, QoS ohne Monitoring ist schlicht ein Zeichen für ein mangelndes Verständnis der Problematik. Aber mit der Vielzahl von Spezialfällen steigt auch die Komplexität der Überwachung. Das QoS-Design und der Betrieb müssen deshalb eine Symbiose bilden

An dieser Stelle setzen wir von ComConsult Research mit einer eintägigen Sonderveranstaltung an. Wir analysieren und diskutieren mit Ihnen:

  • wann und wo gibt es einen neuen Bedarf für QoS?
  • welche Optionen haben Sie?
  • wie kann das im Betrieb umgesetzt werden?
  • gibt es QoS-Verfahren, die sich gegenseitig behindern oder miteinander unverträglich sind?
  • wie gut werden QoS-Verfahren von virtuellen Switches und Routern unterstützt?
zugeordnete Kategorien: LAN
zugeordnete Tags: , , , ,

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.