QoS: wieder auf der Tagesordnung?

1 Kommentar Drucken

Quality of Service QoS war ein intensives Diskussionsthema speziell in den 90er Jahren als die Bandbreiten in Netzwerken zusammen mit dem realen Bedarf schnell von 10 Mbit auf Gigabit gewachsen sind. Dabei ist die Kombination sehr unterschiedlicher Bandbreiten in Netzwerken immer ein Indikator für mögliche Engpass-Bereiche. Mit dem Übergang auf Gigabit-Netzwerke hat sich QoS von einem realen Bedarfsthema zu einem SLA-Feigenblattthema gewandelt. Speziell für Voice und Video in Netzwerken wurde von einigen Herstellern pauschal die Notwendigkeit von QoS unterstellt. Dies wurde unterstrichen mit zum Teil abenteuerlichen Labor-Vorführungen, die die Auswirkungen eines blockierten Netzwerkes auf Sprachübertragungen belegten.

In der Praxis konnte ein wirklicher Bedarf für QoS in Gigabit-Netzwerken kaum nachgewiesen werden (bis auf begründete Ausnahmen). So wurde es mehr als Vorsichtsmaßnahme und zur Fehlerabgrenzung eingesetzt.

Nun stehen wir im Moment mitten im Übergang auf 10, 40 und 100 Gigabit-Netzwerke. Damit sollte das Thema ja nun doch endgültig in der Mottenkiste der LANs verschwinden, oder?

Tatsächlich aber hat sich die Lage in den letzten Jahren deutlich verkompliziert. Die Ursache liegt in mehreren Faktoren begründet:

  • Die Trennung von Server und Speicher im Rechenzentrum kann zu erheblichen Datenströmen im Netzwerk zwischen Server und SAN oder NAS führen
  • Virtualisierungs-Lösungen können je nach Auslegung zum Beispiel im Bereich High-Availability hohe Anforderungen an Netzwerke stellen und zu starken Spitzenlasten führen
  • Wir sind wieder in einer Situation, in der sehr unterschiedliche Bandbreiten zusammen kommen. 1, 10, 40 und 100 Gigabit spannen ein erhebliches Bandbreiten-Spektrum auf.

Wie schon früher liegt auch heute ein Problem in möglichen Engpässen durch Überbuchungen von Switch-Systemen. Bei Datenströmen im 10 Gigabit-Bereich sind auch größere Puffer schnell gefüllt. Außerdem sind Puffer ein Preisfaktor für die Hersteller und Einsparungen an dieser Stelle können sich schnell negativ auswirken.

Der Übergang zu 1, 10, 40 und 100 Gigabit-Netzwerken führt also zu einer Wiederbelebung des QoS-Themas.

Also alles wie gehabt, packen wir die VLANs aus und sichern unsere kritischen Datenströme mit Prioritäten ab?

Dies ist Mitnichten der Fall und die Realität ist deutlich komplexer:

  • Prioritäten sind wenn überhaupt ein Mechanismus, um kleine Datenströme vor großen zu schützen. Damit also zum Beispiel Sprach-Verbindungen auch in stark belasteten Netzwerken funktionieren
  • Unsere neue Betriebssituation wird aber durch extrem große Datenströme bestimmt, die auch selber eine hohe Priorität bräuchten

Um dem gerecht zu werden, hat man speziell neue Verfahren wie DCB geschaffen, die eben genau dieser Situation Rechnung tragen. Gleichzeitig wird es immer schwerer ein traditionelles VLAN-Design umzusetzen. Der VLAN-Mechanismus wird der modernen Netzwerk-Situation nicht mehr gerecht.

Wir brauchen also eine neue QoS-Diskussion, die sich mit den Fragen befasst:

  • Wo bestehen QoS-Risken bzw. Bedarfssituationen?
  • Welche QoS-Verfahren machen Sinn?
  • Wie sieht eine angemessene LAN-Planung aus, die diese Probleme verhindert?
  • Was passiert an der Grenze zum WAN, an der immer größere LAN-Datenströme auf die Beschränkungen im WAN stoßen?

Wir greifen diese Diskussion mit einer Sonderveranstaltung auf. Versäumen Sie nicht, sich einen Platz zu diesem hoch aktuellen Thema zu sichern.

zugeordnete Kategorien: LAN
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können

Ein Kommentar zu "QoS: wieder auf der Tagesordnung?":

  1. Dr. Kauffels schreibt:

    Der Artikel kennzeichnet treffend die Verwerfungen zwischen unterschiedlichen Netz-Typen. In der Tat ist es häufig problematisch, die Qualität einer Verbindung z.B. von einem über LTE angeschlossenen Endgerät bis hin zu einem Server in einem RZ-Netz zu gewährleisten, was noch der einfache Fall ist, weil es nicht um Volumen geht. Kommt Volumen ins Spiel, rächt es sich jetzt fürchterlich, dass RZ-Netze und Provider-Netze historisch gesehen mit sehr unterschiedlichen Technologien und Steuerungsverfahren konzipiert wurden. In Zukunft wird aber das Konzept kooperierender Clouds immer wichtiger. Beispiel: Behörden haben jeweils private Clouds, für bestimmte Anwendungen wäre es aber sinnvoll, wenn die ggf auch mit hohem Volumen zusammenarbeiten. Ich habe die DCB-Protokolle vor Jahren, als sie aufkamen, umfassend analysiert. Kurz gesagt ist aber das Ergebnis, dass sie nicht mehr können, als dafür zu sorgen, dass kleinere Datenströme nicht untergebuttert werden. Bezogen auf erweiterte Problemstellungen bieten die Systeme für RZ-Netze hier nach wie vor nichts an. Auf dem Providerbereich wird Carrier Ethernet immer häufiger eingesetzt. In seiner Version 2 bietet es durchaus die Möglichkeit zur durchgängigen Qualitätssicherung und natürlich sind alle Teilnehmer oder Teilnehmergruppen per Definitionem getrennte Mandanten, so dass die VLAN-Fummelei endlich entfällt. Die gute Botschaft ist, dass die Switch-ASICs der nächsten Generation, die ab jetzt in den entsprechenden Switches verbaut werden, die Carrier Ethernet-Protokolle durchaus in Hardware beherrschen, man muss das also nicht extra kaufen, sondern nur benutzen. Natürlich benötigen solche Konzepte auch viel Speicher, ganz grob ist der aktuelle Erkenntnisstand, dass angesichts der immer weiter steigenden Aufgaben für einen 100G-Port durchaus 20 MB Speicher „fällig“ werden, und zwar von der schnellen Sorte, die mit der Übertragungsgeschwindigkeit mithalten kann. Der Hersteller Ciena hat vor einigen Tagen ein schönes Konzept vorgestellt, wie man solche gemischten Umgebungen steuern kann. Letztlich läuft Vieles auf offene Schnittstellen und SDN-Steuerungs-Systeme hinaus. Die Situation ist schwierig, aber nicht verzweifelt. Allerdings wird in den nächsten Jahren teilweise ein erhebliches Umdenken erforderlich sein.

Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

*

.