Netzwerke im Jahr 2020: die Karten werden neu verteilt!

Kommentieren Drucken

Wir haben in den letzten Wochen und Monaten über relativ umfangreiche Veränderungen in den Netzwerk-Produkten berichtet. Wir beobachten momentan, dass sich diese Änderungen basierend auf einer neuen Verteilung der Aufgaben zwischen Hardware und Software sogar weiter beschleunigen. Neue AISCs schaffen ein ungeahntes Leistungspotenzial auf der Hardware-Seite schon auf Einsteiger-Niveau und die Verschiebung zu einer zentralistischen Software-Steuerung mit einer Trennung der Control Plane von der Hardware schafft neue Optionen für den Betrieb. So weit so gut.

Die Frage, die bei einer Netzwerk-zentrierten Sichtweise aber vernachlässigt wird, ist, welchen Bedarf wir in Zukunft eigentlich an Netzwerk-Leistung haben werden. Tatsächlich können wir bei einer näheren Analyse der Bedarfsentwicklung der nächsten Jahre feststellen, dass die Änderungen in diesem Bereich sogar umfangreicher sein werden als im Bereich der Netzwerk-Komponenten selber. Man kann es auch anders formulieren: nicht nur Netzwerke verändern sich in sich selber, auch der Bedarf treibt momentan eine Entwicklung, an deren Ende eine andere Form von Netzwerk stehen wird.

Vereinfacht ausgedrückt verbinden Netzwerke Endgeräte mit Applikationen auf Servern (wir lassen jetzt mal Konvergenzaspekte außen vor). Stellen wir die Frage wie Netzwerke in einigen Jahren aussehen, dann müssen wir uns also mindestens drei Fragen stellen:

  1. Was passiert auf der Endgeräteseite in den nächsten Jahren?
  2. Wie sehen Applikationen und Server zukünftig aus?
  3. Was für eine Art von Information wird eigentlich in Zukunft zwischen Endgerät und Server transportiert?

Das spannende und historisch gesehen auch einmalige an der aktuellen Situation ist, dass sich alle drei Bereiche zur gleichen Zeit verändern. Und das nicht nur ein wenig, in vielen Bereichen beobachten wir eine vollständische Ablösung traditioneller Technologien.

Daraus können schon an dieser Stelle eine Reihe von Fragen aufgestellt werden, auf die ich am Ende noch einmal zurück kommen möchte:

  1. Wie sicher sind Investitionen in aktuelle Netzwerk-Produkte?
  2. Für welchen Zeitraum sollten momentan welche Investitionen geplant werden?
  3. Welche Rückwirkungen wird diese Entwicklung auf den Markt und die Hersteller haben, werden wir uns auf eine neue Marktsituation mit neuen Mitspielern vorbereiten müssen?

Starten wir mit der Endgeräteseite. Hier beobachten wir zeitgleich mehrere Trends, die zum Teil auch untrennbar mit unserem Verständnis von Applikationen verbunden sind:

  • Wir haben eine zukünftige Dominanz mobiler Endgeräte, klarer ausgedrückt: in den Unternehmen wird es in einigen Jahren deutlich mehr mobile als stationäre Endgeräte geben.
  • Wir haben eine starke Zunahme der Endgerätezahl. Dabei steigt nicht nur die Zahl der Endgeräte pro Person an, auch werden neue Nutzungsbereiche durch die neuen Formen mobiler Endgeräte entstehen. In einigen Bereichen wie Medizintechnik, Warenhäusern, Speditionen, Schulen und Universitäten wird dies signifikant sein.
  • Unser Verständnis, wie wir mit Endgeräten umgehen wollen und wie wir Applikationen bedienen, wird sich ändern. Es gibt viele Anwendungen, bei denen eine Gestensteuerung deutliche Vorteile bietet. Auch zur Erschließung neuer und IT-unerfahrener Benutzergruppen werden sich neue Formen der Bedienung durchsetzen.

Für die Einschätzung des zukünftigen Netzwerk-Bedarfs muss dabei nicht nur die Frage gestellt werden, wie viele Teilnehmer wann und wo und mit welcher Bandbreite mit welcher Applikation kommunizieren (das wäre die traditionelle Netzwerk-Sicht vor allem zur Kapazitätsplanung). Es muss auch die Frage gestellt werden, wie ich betrieblich mit einem deutlich ausgeweiteten und vor allem mobilen Mengengerüst umgehe:

  • Wen und wie authentifiziere ich in Zukunft?
  • Welche Störfälle können auftreten?
  • Wie viel muss ich in der Netzanalyse über das Kommunikations-Profil der Teilnehmer wissen?
  • Wie mobil werden Teilnehmer? Was bedeutet das für eine Management-Applikation? Ist Cloud-based-Management die Basis für Standort-übergreifenden Betrieb der Zukunft?

Es liegt auf der Hand, dass die Zunahme mobiler Teilnehmer und die damit verbundene Verdrängung stationärer Teilnehmer einher gehen wird mit einem Übergang von Kabel-gebundenen Netzwerk-Zugängen hin zu WLAN- und LTE-Zugängen. Die Bedeutung von LTE lässt sich momentan kaum seriös bewerten, auch wenn auf der Endgeräte-Seite die Frequenz-übergreifende Verbreitung zunimmt. Die meisten Anbieter haben die vorgeschriebene Abdeckung der ländlichen Gebiete erreicht und widmen sich bis 2016 den Städten und Ballungsräumen. Nach wie vor ist die Frequenznutzung aber sehr uneinheitlich mit teilweisen Monopolen einzelner Anbieter. Auch ist unklar, welche Zellplanung die Provider umsetzen werden und wie viel Leistung pro Teilnehmer dabei tatsächlich entsteht. Auch fehlen geeignete Volumen-Verträge für eine wirtschaftliche Flächennutzung. Die Reduzierung auf ein kleines Oligopol von Anbietern mit der damit verbundenen Reduzierung des Wettbewerbs hilft sicher nicht. Zumindest in der aktuellen Lage kann damit LTE bis auf Ausnahmen für die nächsten 3 Jahre nicht als Konkurrenz zu eigenen WLAN-Infrastrukturen gesehen werden.

Eine Schlüsselfrage für die Netzwerk-Planung im Tertiärbereich ist deshalb, wie WLAN-Technik und Produkte in den nächsten Jahren aussehen werden. Die Kombination aus einem Wechsel zu Gigabit-WLAN und einer deutlichen Erhöhung der Anzahl mobiler Teilnehmer macht klar, dass die Skalierbarkeit der Lösung in Zukunft ein heißes Thema sein wird. Schon jetzt kann man ohne Probleme Produkte identifizieren, deren Architektur mit Datenströmen durch wenige zentrale Controller dieser Entwicklung nicht gewachsen sein wird. Man kann es auch anders formulieren:

  • Wir müssen die Frage, wie wir WLANs planen und betreiben, komplett neu überdenken!

Damit kommen wir zur Server- und Applikationsseite. Hier haben wir mehrere signifikante Parallelentwicklungen:

  1. Wir haben eine Verschiebung von Basisinfrastrukturen wie File-Systemen in Richtung Cloud.
  2. Selbst unsere traditionellen Office-Anwendungen stehen auf dem Prüfstand. Für viele Unternehmen wird sich angesichts der fragwürdigen Einführung von Microsoft Office 365 die Frage stellen: ganz oder gar nicht. Bisher blieb Deutschland von dem in den USA zu beobachtenden Wechsel von Microsoft-Kunden zu Google verschont. Aber die Zunahme geeigneter Saas-Angebote stellt natürlich für jedes Unternehmen die Frage in den Raum: muss es in Zukunft wirklich unbedingt Microsoft sein? Dem gegenüber ist auch mit hoher Wahrscheinlichkeit klar, dass ein Unternehmen, das ja zu Office sagt, auch ja zu Office 365 und damit der Microsoft-Cloud-Strategie sagen wird. Nicht weil das Unternehmen das wirklich will, sondern weil Microsoft diese Bindung erzwingen wird.
  3. Dies muss im Zusammenhang mit einer völlig neuen SaaS-Welt gesehen werden. Cloud-Anwendungen schaffen für Software-Anbieter völlig neue Vertriebskonzepte und Betriebs- und Maintenance-Kosten. Anders formuliert öffnet sich gerade für kleine und neue Anbieter ein gewaltiges Potenzial. Beispiele dafür sind Anbieter wie Jive, Box, Huddle, Smartsheet, Liquid Planner u.v.a.m. Der Markt an verfügbarer Software wird sich schon in den nächsten zwei bis drei Jahren deutlich wandeln.

Damit verbunden ist natürlich die ganze Diskussion von hosted-Services, On-Premise Installationen und daraus abzuleitenden Sicherheits- und Compliance-Fragen. Für eine strategische Langfrist-Planung unserer Netzwerke müssen wir davon ausgehen, dass eine Verlagerung von Diensten in die Cloud in einem signifikanten Umfang stattfinden wird. Die dafür notwendigen Infrastrukturen müssen jetzt geschaffen werden (inkl. Sicherheit und Benutzerverwaltung).

Sind dann wenigstens unsere guten alten Datenbank-Anwendungen sicher und bleibt den Unternehmen und Rechenzentren dieser Bereich erhalten? Zumindest ist eine direkte Verlagerung in die Cloud nicht absehbar. Trotzdem sind auch in diesem Bereich zwei signifikante Entwicklungen zu beobachten:

  • In-Memory-Computing ist ein Mega-trend, der ganze Industrien verändern wird. Die Realzeit-Verfügbarkeit wichtiger Planungs- und Entscheidungsdaten wird Unternehmen gewaltige Wettbewerbsvorteile bringen (so lange es nicht alle machen). Auch wenn dies gewaltige Anforderungen an Hardware und Software stellt und im Grunde genommen geschlossene System erfordert (Handhabung von Speicher-Fehlern zum Beispiel und Auswirkung auf Transaktionssicherheit), wird diese Entwicklung unser Verständnis von Datenbank-Anwendungen verändern.
  • Big-Data ist der andere Megatrend. Nach allgemeinen Schätzungen sind momentan 85% aller Daten unstrukturiert, lassen sich also weder sortieren noch in Datenbanken speichern. Trotzdem liegen gerade in diesen unstrukturierten Daten gewaltige Potenziale für Unternehmen. Eine Bearbeitung der Datenmengen ist nur durch parallele Architekturen machbar. Hier ist sicher eine Abwägung erforderlich, ob diese Infrastrukturen lokal vorgehalten werden sollen oder ob Web-Dienste in Anspruch genommen werden. Dies wird sicher auch an der Frage entschieden werden, welche Datenmengen dafür bewegt werden müssen.

Beide Entwicklungen beeinflussen vornehmlich das Design der Netzwerke im Rechenzentrum und die Frage, wie verteilt solche Infrastrukturen in Zukunft sind. Auf jeden Fall werden wir hier schnell einen Übergang von 10 auf 100 Gigabit sehen (Multi-Gigabit-Anwendungen kommen gerade in den Konsumenten-Markt, da ist es nicht verwunderlich, wenn Rechenzentren sich dem 100 Gigabit-Schritt stellen müssen).

In den Rechenzentren wird aus betrieblichen Gründen der Trend zur Virtualisierung weiter gehen. Die Fähigkeit, neue Server innerhalb sehr kurzer Zeit verfügbar zu haben, ist dabei immer entscheidender. Und dies hat ganz entscheidende Rückwirkungen auf Netzwerke. Im Moment ist eine schnelle Bereitstellung von virtuellen Servern in der Regel nämlich nicht möglich. Zwar lässt sich die virtuelle Basis-Maschine schnell auf der Basis eines Templates erstellen, aber dann hört es auch schon auf. Weitergehende Netzwerk-Konfigurationen müssen von Hand durchgeführt werden und kosten Zeit. Der Megatrend sind hier Overlay-Netzwerke in Verbindung mit Software Defined Networking. Auch wird man für solche Infrastrukturen Firewalls und was auch immer an lokalen Netzwerk-Diensten erforderlich ist, immer als virtuelle Appliance liefern. Das hat einen trivialen Grund: werden die virtuellen Server verschoben, kann die gesamte Netzwerk-Infrastruktur einfach ebenfalls verschoben oder repliziert werden.

Unser klares Statement an dieser Stelle:

  • Overlay-Technologien und Software-Definied Networking in Verbindung mit Software-Netzwerk-Komponenten sind keine akademische Spielzeugwiese: für den wirtschaftlichen und verfügbaren Betrieb der Rechenzentren der Zukunft sind sie eine unverzichtbare Voraussetzung!

Damit sind wir bei der letzten Frage angekommen: was wird eigentlich zwischen Endgeräten und zentralen Applikationen transportiert? Die Kombination aus dem Übergang zu mobilen Endgeräten und einer Verlagerung in die Cloud wird dabei mit hoher Wahrscheinlichkeit die Nutzung von HTML5 als wesentliche Basis weiter fördern. Die meisten Applikationen für Smartphones und Tablets entstehen auf dieser Basis. Kombiniert man das mit SaaS-Anwendungen, bei denen die Daten zentral bleiben und lokal nur mit Viewern gearbeitet wird, dann ergibt sich unter dem Strich ein erstes Gefühl für die zukünftige Situation. Auch wenn es noch zu früh für eine fundierte Abschätzung ist, liegt als Trend die folgende Einschätzung nahe:

  • Trotz der drastischen Zunahme der Menge an Endgeräten wird das Datenvolumen, das zwischen Endgeräten und Servern/Applikationen transportiert wird, abnehmen.

Ist das ein Widerspruch zu den vorhergehenden Aussagen zu Gigabit-WLAN? Aus drei Gründen nicht. Unsere bestehenden WLAN-Infrastrukturen sind Bandbreiten-mäßig relativ schwach ausgelegt. Es wird auch in Zukunft mal immer den Bedarf zur Bewegung größerer Datenmengen geben, dafür sind Gigabit zwingend erforderlich (einfache Forderung: ein Netzwerk sollte mindestens so schnell sein wie der Durchsatz einer 2,5 Zoll-Mobilfestplatte). Dann haben wir in diesen Überlegungen die Konvergenz, also zum Beispiel die Integration von Audio und Video vernachlässigt. Und drittens sehen wird eine Entwicklung zu modularen Systemarchitekturen mobiler Endgeräte in Kombination mit WLAN-Busverlängerungen. Also zum Beispiel der Anbindung eines Tablets an einen Bildschirm auf WLAN-Basis (Standardisierung dazu läuft).

Damit hat dieses Geleit schon seinen Rahmen gesprengt und wir sollten zum Fazit kommen. Das ist auch relativ einfach und beantwortet die zu Beginn gestellten Fragen:

  • Wir brauchen für eine Investitions- und Zukunftssicherheit im Bereich der Netzwerke eine Berücksichtigung der im Moment statt findenden Änderungen.
  • Die Netzwerke der Zukunft werden erheblich anders aussehen als heute. Stellen Sie sich bildlich die Kombination aus 100 Gigabit im RZ, den Einsatz virtueller Netzwerk-Komponenten in Overlay-Netzwerken, die Strukturierung von Endteilnehmern in Overlays und eine neue Gigabit-WLAN-Welt vor. Kombinieren Sie das mit der notwendigen Integration der Cloud und Sie erhalten ein neues Verständnis von Netzwerk.

In diesem Sinne sehen wir die aktuelle Entwicklung auch als kritisch an. Eine Auseinandersetzung mit dieser Entwicklung sollte deshalb umgehend erfolgen.

zugeordnete Kategorien: Data Center, LAN
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.