IT-Infrastrukturen 2015: wohin geht der Weg?

Kommentieren Drucken

Der IT-Markt befindet sich in einer ungewöhnlichen Konstellation. Auf der einen Seite haben wir ausgereifte Technologien, die sich im Übergang von teurer Spezialtechnik zur Massenware befinden oder diesen schon vollzogen haben. Dies trifft zum Beispiel auf Speicher-Systeme, aber auch auf den Tertiär-Bereich der Netzwerke zu. Auf der anderen Seite sehen wir Technologie-Verschiebungen, die weit über den Umfang einer normalen Evolution hinaus gehen. Betroffen davon sind das Rechenzentrum und der gesamte Endgeräte-Bereich. Dieses Spannungsfeld aus immer preiswerteren Massenprodukten auf der einen und völlig neuen Technologie-Ansätzen auf der anderen Seite wird aus der Sicht von ComConsult Research die nächsten Jahre bestimmen.

Dies ist ein Kurzartikel und kein Technologie-Report. Aus diesem Grund möchte ich meine persönlichen Favoriten herausgreifen, die aus ganz unterschiedlichen Bereichen kommen. Eine vollständigere und tiefergehende Analyse werden wir auf unseren ComConsult Netzwerk- und IT-Infrastruktur-Forum 2015 vorstellen.

Lassen Sie mich mit der Bedarfsseite beginnen. Also bei Technologien, deren weitere Entwicklung neue oder veränderte Anforderungen an IT-Infrastrukturen stellen wird.

Bedarfs-Faktor 1: Mobilität

Der Trend zu mobilen Endgeräten ist natürlich nicht neu. Trotzdem werden wir aus meiner Sicht eine neue Qualität dieser Entwicklung erleben. Als Beispiel dazu nehme ich die Vorstellung vom Project Square durch Cisco Ende Oktober letzten Jahres. Diese Vorstellung – fast zeitgleich mit der Vorstellung von Circuit durch Unify – hat aus meiner Sicht zwei typische Elemente, die genau den Trend aufgreifen, den ich hier sehe:

  • wir erleben eine Professionalisierung in der Nutzung von “großen” Smartphones und Tablet-Computern. Damit gewinnt diese Geräte-Gattung zunehmend an Bedeutung. Interessant bei der Cisco-Präsentation war, dass das iPhone 6 Plus das dominante Gerät war. Offenbar war der professionelle Markt mit dem Angebot an ähnlichen Android oder Windows Phone Geräten nicht zufrieden (obwohl unser eigener Labortest dieser Geräte zu sehr guten Ergebnissen geführt hat). Das iPhone 6 Plus hat die Tür geöffnet für eine neue Welle professioneller Applikationen, die bisher eher auf Tablet-Computern angesiedelt waren. In dieser Geräteklasse geht es nicht um Masse, sondern um die Art der Nutzung und die damit verbundene Qualität. Hier werden Apps zum Einsatz kommen, die direkt in zentrale Prozesse der Unternehmen verankert sind. Project Square, Circuit und Salesforce1 sind typische Beispiele. Ein weiteres gutes Beispiel in dieser Richtung liefert die Zusammenarbeit von Apple und IBM, die das Ziel hat genau diese Art von Nutzung zu fördern.
  • wir erleben ein Verschmelzen aus Kommunikation und Datenverarbeitungs-Prozessen. Das, was mit IP-Telefonie vor 15 Jahren begonnen hat und damals mehr ein leeres Versprechen war, nämlich die Integration aus Sprache und Daten, findet jetzt auf einem viel höheren Niveau mit der gleichzeitigen Integration von Video, Kollaboration und Konferenzen statt.

Im Kern führt diese Entwicklung zur Anforderung darauf zugeschnittener Infrastrukturen und zu einer Abkehr von Bring Your Own Device BYOD für diese Geräteklasse. Unternehmen müssen ihre Kernprozesse bewusst gestalten und können sich nicht davon abhängig machen, welche Endgeräte ihre Anwender per Zufall oder per Weihnachtsgeschenk einsetzen. Der Begriff Professionalisierung in diesem Bereich darf aber nicht darüber hinweg täuschen, dass hier Technik die Entwicklung prägt, die eigentlich aus dem Konsumer-Markt stammt und dementsprechend immer Elemente beinhalten wird, die das Leben der IT-Abteilungen in den Unternehmen erschweren.

Bedarfs-Faktor 2: Server und Virtualisierung in Kombination mit Private Clouds

Der Server-Markt ist ein Markt voller Widersprüche:

  • Intel dominiert den Markt und liefert außer vielen Folien über denkbare zukünftige Technologien seit Jahren kaum einen messbaren Zugewinn. Viele der herausragenden neuen Intel-Produkte sind im HPC-Markt angesiedelt und spielen für den Durchschnitts-Kunden kaum eine Rolle. Selbst der gesamte Xeon-E7-Bereich hört sich sicher toll an, darf aber nicht darüber hinweg täuschen, dass die Masse des Marktes E3 und E5 einsetzt. Im Kern produziert Intel viel Rauch, liefert aber in der Masse Durchschnittsware, ruht sich auf seinem Marktanteil aus und versucht dabei gleichzeitig seine Profite zu maximieren. Und das führt nicht immer zu dem Fortschritt, den man sich als Normalkunde wünschen würde.
  • Die großen Cloud-Rechenzentren setzen den Standard-Anbietern wie Cisco, Dell und HP immer mehr zu. Whiteware-Server werden schon in kurzer Zeit einen Marktanteil von 20% und mehr erreichen. Dabei zeigen Kunden wie Facebook gleichzeitig mit dem Design ihrer Server wie ein Monopolist wie Intel in Kombination mit einem Oligopol weniger dominanter Anbieter den technischen Fortschritt blockieren kann. Tatsache ist, dass bestehende Server viel zu Wartungs-intensiv und aufwendig im Betrieb sind. Der Erfolg von Cisco zeigt, dass Kunden bereit sind für einen vereinfachten Betrieb sogar mehr zu bezahlen. Das Spannende an dieser Entwicklung ist, dass die traditionellen Anbieter jetzt in der Verteidigungsrolle sind und reagieren müssen. Aus ihrer Sicht muss verhindert werden, dass Whiteware-Lösungen auch den Einzug in die normalen Rechenzentren finden. Das wird durchaus noch interessant werden, da Whiteware nicht in jedem Fall mit einfach oder minderwertig gleichgesetzt werden kann. Die Whiteware-Anbieter hängen direkt an den Anforderungen der großen Cloud-Provider. Hier geht es nicht nur um einen niedrigen Preis, sondern auch um Betriebsfunktionalität. Hier gibt es auch einen klaren Interessen-Konflikt zwischen Intel und den Server-Anbietern. Intel verdient in jedem Fall, der Formfaktor und die weiteren Angebotsdetails sind für Intel egal.
  • Die Public Cloud macht den Rechenzentren durchaus zu schaffen. Zwar sind die deutschen Kunden nicht gerade Cloud-freundlich, aber die Cloud setzt die Rechenzentren unter Druck ihre Leistung zu optimierten Kosten und mit optimierten Prozessen zu liefern. Infrastructure as a Service IaaS ist aus meiner Sicht keine wirkliche Bedrohung für die Masse der Rechenzentren. Die dabei versprochenen Kostenvorteile sind blanker Unsinn und halten in über 90% der Fälle keiner Prüfung stand (im Gesamtprozessgefüge eines durchschnittlichen RZ deckt IaaS zuwenig Prozess-Elemente ab und durch die mit IaaS verbundenen Schnittstellen-Probleme reicht die geringe Abdeckung nicht aus, um einen wirklichen Kostenvorteil zu erreichen). Trotzdem müssen sich Rechenzentren den mehr emotionalen und manipulativen Fragen stellen, die zum Beispiel die Werbebotschaft der Cloud “ein neuer Server in Minuten einsatzbereit” etwas zu wörtlich nehmen. Diese Werbebotschaft ist natürlich fern jeder Realität, da aus Kundensicht ein Server alleine ja keinen Nutzen bringt. Und die Installation der Datenbank, der Anwendung, die Konfiguration der Nutzer dauern in der Cloud genau so lange wie im eigenen Hause. Trotzdem führt für die RZ auch aus Image-Gründen kein Weg daran vorbei, sich dieser Anforderung zu stellen. Auch darf nicht unterschätzt werden, dass die Cloud-Anbieter dieses Problem eines zu geringen Mehrwerts durch IaaS ja auch selber erkannt haben. Wer zum Beispiel das Amazon-Angebot der letzten Jahre beobachtet hat, der konnte sehen wie Amazon sein Verständnis der angebotenen Dienste immer weiter in Richtung Service (also zum Beispiel mit fertigen Datenbanken und Middleware-Lösungen) ausgebaut hat. Auch Oracle hat im Oktober letzten Jahres angekündigt gezielt in diesen Cloud-Mehrwert-Markt einzusteigen. In diesem Sinne sind die Rechenzentren durchaus gezwungen sich auf eine zunehmend veränderte Marktlage vorzubereiten.
  • Als direkte Folge dieser beiden Punkte werden wir in den nächsten Jahren eine Welle von Private Cloud-Projekten sehen. Diese werden geprägt sein von hohen Server-Dichten in Kombination mit Funktionen aus dem Nebel der Software Defined Data Center. Dies ist klar der Weg, den zumindest Cisco und HP beschreiten. Wer zum Beispiel die Cisco-Ankündigung zu neuen Servern aus dem letzten Jahr näher analysiert, der wird sehen, dass eine Verdichtung in Kombination mit einer Ausdehnung der Software-Steuerung der Trend ist. Dabei ist aber Vorsicht geboten. Von einer wirklichen Nutzbarkeit von Automatisierung wie es Projekte wie OpenStack versprechen, sind wir aus meiner Sicht für die Masse noch einige Jahre entfernt. Im Moment lohnt sich dieser Weg nur für sehr große Rechenzentren. Der Aufwand der Umsetzung solcher Projekte ist für den Normalkunden noch viel zu hoch.
  • Dabei ist es aus meiner Sicht durchaus möglich, dass wir in drei bis fünf Jahren eine neue Generation von Infrastruktur- und Server-Technologie haben werden. Das, was Intel als Rack Scale-Architektur bezeichnet, wird in irgendeiner Form kommen. Dabei werden die Grenzen der heutigen Server aufgehoben und größere Mengen von CPUs teilen sich größere Mengen von RAM, Festplatten und I/O. Diese Art von Technologie ist mit sehr vielen Fragezeichen verbunden, aber sie wird kommen. Unklar ist im Moment, wie eine solche Architektur gesteuert werden kann. Hier werden wir ohne Frage Software Defined Data Center Elemente sehen müssen. Dabei wird Software alleine nicht ausreichen. So wie Virtualisierung erst erfolgreich war, nachdem die Hardware die zentralen Funktionen der Hypervisor direkt unterstützt hat (zum Beispiel den Zugriff der Virtuellen Maschinen auf den Hauptspeicher), werden wir ein neues Hardware-Layer brauchen, das dann Rack Scale in Kombination mit einer neuen Art von Low-Level-Hypervisor möglich macht. Das Fragezeichen hinter dieser Entwicklung liegt klar im Bereich der Kosten. Der Zugewinn einer gemeinsamen Nutzung von Hauptspeicher zum Beispiel durch mehrere Server-CPUs ist technisch sehr komplex, da wir hier über extreme Bandbreiten und auch völlig neue Bus- und Kommunikations-Architekturen sprechen, und gleichzeitig ist der finanzielle Gewinn mager und nur sehr kurzfristig. Die Preise für DRAM fallen zum Beispiel zu schnell, um einen Pool-Vorteil solcher Technologien von vielleicht 20% wirklich zu rechtfertigen. Im Endeffekt hat der Kunde denselben Spareffekt, wenn er einfach 6 bis 12 Monate wartet. Das reicht nicht aus, um die Einführung einer solch komplexen Pooling-Architektur zu rechtfertigen. Ohne Frage muss man diese Entwicklung beobachten, aber die Erwartungshaltung sollte eher zurückhaltend sein. Die Komplexität in der Software zur Steuerung solcher Systeme ist erheblich und auch ein Anbieter wie Intel kann sich daran schnell verheben.

Bedarfs-Faktor 3: Sicherheit

Im Bereich Sicherheit steht dem zunehmenden Bedarf die gleichzeitig zunehmende Komplexität gegenüber. Es gibt keinen Mangel an Sicherheits-Lösungen, aber die Schaffung einer abgestimmten und funktionsfähigen Gesamt-Lösung ist eine Mammut-Aufgabe (an der Unternehmen durchaus auch scheitern können). Wir erleben im Moment eine Flut von so genannten Middleware-Systemen/Boxen, die den Betrieb erheblich erschweren. Dazu gehören Firewalls, Load-Balancer, IDS-Systeme und so weiter. Es gibt bereits Unternehmen, bei denen die Zahl der eingesetzten Middleware-Boxen die Zahl der vorhandenen Hardware-Switches im Core übersteigt.

Aus meiner Sicht gibt es einen starken Bedarf:

  • zur Konsolidierung der Middleware-Ebene
  • in einem sauber definierten Gesamtkonzept

In der Umsetzung werden Zonenkonzepte eine große Rolle spielen. Aber die Sprengkraft wird auch weiterhin in der Vermischung der Technologien und der Zuständigkeiten liegen. Tatsächlich ist auf der technischen Seite die einfachste Umsetzung eines Endgeräte-Zugangs zum Netzwerk durch eine SDN-Lösung erreichbar. Dies ist unglaublich elegant und einfach in der Umsetzung und im Betrieb. Aber da sind wir dann bei einer weiteren “Box” in Form einer Apps auf einem SDN-Server. Und natürlich bei der Frage, wer dafür eigentlich zuständig ist.

Insgesamt ist der Sicherheitsbereich aber als Türöffner für SDN anzusehen. Die ursprünglichen Argumente von der Einsparung bei der Switch-Hardware sind verblasst, übrig geblieben sind die erheblichen operativen Vorteile, die SDN bietet. Allerdings geht das mit erheblichen Herausforderungen für die Netzwerker einher. Es ist nicht gerade täglich Brot für die Netzwerk-Abteilung, mal eben einige neue Skripte für eine SDN-Apps zu programmieren. Hier wird sich eher jemand wohl fühlen, der sein technisches Leben ansonsten mit Python oder Javascript verbringt.

Mit SDN und Sicherheit entsteht die allgemeine Frage der zukünftigen Rolle von Software in unseren Infrastrukturen. Skalierbarkeit und Kontrolle sind aus meiner Sicht primär durch virtuelle Instanzen unter dem Deckel einer zentralen Software-Steuerung zu erreichen. Und seit Jahren gehört Network Function Virtualization zu den Kernzielen von SDN. Meine Prognose: Sicherheit, SDN und NFV werden zusammen wachsen und eine neue Leistungsstufe im Bereich Sicherheit ermöglichen.

Diese drei Beispiele reichen an dieser Stelle aus, um den aus meiner Sicht gegebenen Bedarf zu beschreiben. Wie gesagt, werden wir auf unserem Forum im Detail auf diese Themen eingehen. Die naheliegende Frage ist nun, wie sich dieser Bedarf auf IT-Infrastrukturen auswirkt und was an neuen oder veränderten Technologien zur Verfügung steht, um diesen Bedarf zu erfüllen.

Auch hier kein Anspruch auf Vollständigkeit und meine persönliche Auswahl an Favoriten:

Lösungstechnologie 1: SDN
SDN wird aus meiner Sicht die ursprünglichen Erwartungen einer kompletten Umwälzung unserer Netzwerk-Industrie nicht erfüllen. Zumindest nicht in den nächsten 3 bis 5 Jahren. Auf der Hardware-Seite passiert zu wenig und es bleibt unklar, welche Anbieter die Lokomotive spielen wollen (Intel ist für mich einfach zu sehr ein Schaumschläger als wirklich ernst zu nehmen, trotzdem wird Intel eine Rolle spielen müssen, da Rack Scale-Architekturen und SDN eng miteinander verbunden sind). Trotzdem ist SDN aus meiner Sicht ein Erfolg. SDN macht Lösungen möglich, die mit traditioneller Technik schlicht nicht machbar gewesen wären.

Dazu gehören:

  • die zentrale Steuerung von Middleware-Boxes und Sicherheits-Lösungen allgemein und über Hersteller-Grenzen hinweg
  • die selektive Umlenkung und Evaluierung von Verkehrsströmen
  • eine völlig neue Form der Umsetzung von QoS und Service-Garantien für ausgewählte Anwendungen, vor allem diesmal wirklich Ende-zu-Ende

Aus meiner Sicht wird der SDN-Controller der Zukunft Open Daylight heißen. Alle anderen Ansätze geraten immer mehr in Rückstand und die Unterstützung der wesentlichen Anbieter ist bei Open Daylight. Hier passiert dementsprechend auch sehr viel und die ursprüngliche Erwartung, dass Cisco versucht, mit Open Daylight den Markt zu blockieren, hat sich aus meiner Sicht nicht erfüllt (auch wenn Cisco durch Open Daylight natürlich einen erheblichen Einfluss auf die Entwicklung behält).

Spannend an dieser Stelle ist, dass wir eine neue Welle aus hybriden Lösungen sehen werden. Zum Beispiel erfordert der Endgeräte-Zugang mit einer zentralen SDN-Apps auf dem Access-Switch keine Spezial-Hardware, da die Anzahl der Flows an dieser Stelle durchaus überschaubar ist. Es wäre wünschenswert, wenn OpenFlow endlich auch Anwendungen berücksichtigt und nicht auf dem Layer 4 halt macht, aber eigentlich ist das auch egal, wenn die Open Flow-Vertreter weiter schlafen, wird eben eine andere Lösung kommen.

Die Analyse von SDN und was damit geht und nicht geht ist aus meiner Sicht eines der Kernthemen von 2015.

Lösungstechnologie 2: Edge/Core-Switching mit Service-Integration und QoS
Virtualisierung im RZ hat den Bedarf nach virtuellen Netzwerken generiert, so dass Layer 2-Bereiche über Layer-3-Zonen hinweg aufgespannt werden können. Was ursprünglich als Spezial-Technologie und als Kampf VMware NSX kontra Cisco ACI gestartet ist, hat inzwischen eine ganz Welle von neuen Ideen und Technologien ausgelöst. Im Vordergrund steht die Frage, ob Netzwerke Service-bewusst sein sollten, also ob ein Switch bei einem Paket wissen muss, zu welchem Service es gehört und welche Anforderungen dieser Service hat. Im Endeffekt ist dies eine Verallgemeinerung von VLAN-Technologie auf einer anderen Ebene. Hier geht es um Quality-of-Service und eine Ende-zu-Ende-Kontrolle über ganz verschiedene Netzwerk-Technologien hinweg und eventuell sogar zwischen Standorten oder zwischen einem lokalen RZ und einem Cloud-RZ.

Diese Diskussion ist nicht neu, wir führen sie mindestens seit den Zeiten von ATM Mitte der 90er Jahre. Neu ist aber in der Tat die im Moment diskutierte Lösungsarchitektur, die ein Grundprinzip des bisherigen Switchings komplett in Frage stellt: dass nämlich jeder Switch im Grunde genommen die selbe Aufgabe wahrnehmen soll.

Es geht um die Frage, ob wirklich jeder Switch wissen muss, welche Services es gibt und welche Anforderungen damit verbunden sind. Und ob jeder Switch wirklich die Intelligenz haben muss, komplexe Situationen zu bewerten und Entscheidungen zu treffen, um die Verkehrsanforderungen umzusetzen.

Die neue Architektur des Edge/Core-Switchings verlagert die gesamte Intelligenz an den Rand des Netzwerkes. Dort wird die Service-Zuordnung getroffen und jedem Paket ein Label zugeordnet, das dann im Core die Verarbeitung prägt. Dabei ist es auch denkbar, dass dies nicht statisch ist und die gewählten Label von der Betriebssituation abhängig gemacht werden. Dabei kann beides passieren: dass nämlich eine Flut von Labels und Services definiert wird mit Tausenden von Ausprägungen oder dass eine Reduzierung auf wenige Labels erfolgt. Im Kern ist diese eine der Aufgaben des “neuen LAN-/WAN-Designs”.

Hat man einmal die Vorteile des Edge/Core-Konzepts verstanden, dann wird klar, dass dies eine interessante Entwicklung ist. Durch die Reduzierung auf pures und dummes Weiterleiten im Core erfüllt sich eines der Ziele, das eigentlich ursprünglich bei SDN lag: die Einführung eines einfachen und universellen und somit preiswerten (und ohne großen Aufwand zu betreibenden) Core-Switches.

Dabei entstehen zwei Fragen: was ist das für eine Art von Label und was ist ein Edge-System?

In jedem Fall muss das Label standardisiert sein. Und hier gibt es ganz verschiedene Lösungs-Ansätze. Von einfachen Tunnel-Lösungen bis zu komplexeren Label-Umsetzungen zum Beispiel mit Shortest Path Bridging (bisher vorwiegend von Avaya voran getrieben, aber andere wesentliche Hersteller werden folgen).

Aus meiner persönlichen Sicht ist aber die Frage, wie das Label aussieht, nicht so entscheidend, solange man sich auf eine oder zwei Technologien einigen kann. Spannend und zentral ist die Frage wo die Intelligenz sitzt. Hier gehen die Meinungen und die Interessen der Anbieter weit auseinander. Es liegt dabei durchaus nahe, die Intelligenz in Software zu sehen, also im Software-Switch in den Hypervisor-Systemen und diese Funktionalität über SDN zu steuern. Dies schafft die Flexibilität, die wir brauchen, um diese Art von Lösungen stufenweise zu verfeinern und zu verbessern. Und es würde eine saubere Trennung schaffen. Naturgemäß sind Avaya, Cisco, Extreme und HP (und die anderen) damit nicht so ganz zufrieden. Sie würden auf die Rolle des Lieferanten austauschbarer Massenware reduziert, während der Glanz und die Intelligenz der Lösungen auf einmal bei Firmen wie Microsoft oder VMware liegt. Dementsprechend sehen sie die Intelligenz mehr im ToR oder im ersten Access-Layer nach den Servern. Und die Umsetzung per Software wirft natürlich die Frage auf, wie Endsysteme integriert werden, die gar nicht mit Virtualisierung arbeiten, also keinen Hypervisor und keinen Softswitch haben (in der Fertigung zum Beispiel).

Es kann als sicher angesehen werden, dass sich das Konzept von Edge/Core-Switching im Markt durchsetzt. Die große Frage ist dabei: wie und wer. Und natürlich: was wird Cisco machen. Man kann ja viel diskutieren, aber an einer installierten Basis von 60 bis 80% je nach Bereich führt kein Weg vorbei.

Das wird spannend und natürlich wird dies eines der heiß diskutierten Themen auf dem ComConsult Netzwerk- und IT-Infrastruktur Forum 2015 sein.

Lösungstechnologie 3: IPv6
Ja ich weiß, wir haben in den letzten 10 Jahren so häufig IPv6 vorher gesagt, dass dem erfahrenen Leser ein müdes Gähnen überfällt. Aber es war immer klar: irgendwann ist Schluss mit lustig (sprich IPv4) und spätestens wenn die großen Projekte rollen, nimmt der Markt seine Fahrt auf. Und an diesem Punkt sind wir jetzt. Die Meinungs- und Technologie-Führer auf der Anwenderseite haben ihre großen Projekte aufgesetzt und der Zug fährt los. Die Motivationen sind dabei ganz verschieden, aber in der Regel dominiert der Wunsch nach einer langfristig stabilen Infrastruktur für die Zukunft (zum Beispiel wenn Produkte unterstützt werden müssen, deren Lebensdauer 10 bis 15 Jahre beträgt). Auch hat IPv6 eine ganze Reihe gestalterischer Vorteile, die über die einfache Ablösung von IPv4-Adressen weit hinaus gehen. Das wird unser Intensiv-Tag auf dem ComConsult Netzwerk- und IT-Infrastruktur Forum 2015.

Lösungstechnologie 4: WLAN-Technik
Im Zugangsbereich geht der Weg weg vom Kabel und hin zum Funk. Und unter Funk verstehe ich persönlich WLAN und nicht LTE. LTE mag interessante Nebenaspekte haben wie die einfache Inte-gration von Gästen, aber im Kern misstraue ich Providern und sehe die Kontrolle über die Netzwerk-Infrastrukturen lieber bei den Unternehmen.

Technisch gesprochen sind wir wenn wir über WLAN sprechen bei der Einführung von IEEE 802.11ac. Das ist aber aus meiner Sicht gar nicht so wesentlich. Aus meiner Sicht kommen zwei ganz wesentliche Entwicklungen zur selben Zeit und werden den Markt prägen:

  • Hohe Bandbreiten-Kapazitäten pro Zelle lassen sich bei aller Technik-Diskussion nur mit kleinen Zellen umsetzen. Das Gigabit WLAN ist ein “Ein Access-Point pro Raum” Netzwerk.
  • Gleichzeitig erleben wir einen Verfall der Preise bei den Access Points. Die Frage, wie viele wir davon brauchen, reduziert sich immer mehr auf die Frage der Verkabelung und Installation. Wenn wir erst bei Preisen von 50 Euro pro Access Point sind, diskutiert niemand mehr über Sinn oder Nicht-Sinn von Mikro-Zellen-Design. Und von diesem Punkt sind wir nicht so weit entfernt.

Beide Entwicklungen zusammen bedeuten, dass wir zunehmend mit vielen kleinen anstelle weniger großer Zellen arbeiten. Durch die zunehmende Dichte mobiler Teilnehmer (3 bis 5 Geräte pro Person?) bleibt aber die Frage, wie viele Teilnehmer pro Zelle sinnvoll bearbeitet werden können, weiterhin als Design-Thema bestehen. Dies ist nicht unbedingt eine Frage der Gesamtbandbreite, aber Laboruntersuchungen zeigen, dass die Gesamtbandbreite mit der Teilnehmerzahl durch den erhöhten Overhead deutlich fällt (über 50%). In Planungssituationen in Hotels, Besprechungsräumen, Konferenzsälen, Krankenhäusern usw. muss das beachtet werden. Gerade in einem Konferenz-Szenario in einem Hotel kann von Gigabit-Kapazität mit 11ac nicht die Rede sein. Die Verluste durch viele parallele Teilnehmer drücken die verfügbare Kapazität pro Zelle weit herunter.

Damit sind wir beim Kern von Thema 4. Aus meiner Sicht brauchen wir neue Management-Ansätze für WLANs. Zellen als Massentechnologie mit vielleicht Tausenden von Zellen in größeren Unternehmen brauchen eine neue Form des Managements und auch neue Formen der Steuerung. So wird es immer wieder vorkommen, dass einzelne Anwendungen die Kapazität eines WLAN blockieren. Beispiele wären YouTube oder der Zugang zu Dropbox. Hier sind mindestens einfache und schnelle Möglichkeiten des Traffic-Shapings gefordert. Und natürlich eine gute Übersicht über das, was im Netzwerk passiert. Aus meiner Sicht ist es kein Zufall, dass Meraki bei einem in Summe eher stagnierenden WLAN-Markt (nach Umsatz gemessen) deutliche Zugewinne hat. Auch Aruba hat eine verbesserte Erkennung und Steuerung der Dienste in einem WLAN angekündigt.

WLAN heißt dementsprechend für mich immer mehr: weg von der Technologie und hin zum Betrieb. Unabhängig davon ist die Nachfolgetechnik nach 11ac noch Jahre entfernt, so dass wir uns für eine ganze Weile auf 11ac und ggf 11ad konzentrieren können. Im Moment rechnet man nicht damit, eine neue WLAN-Technik vor 2019 zu sehen. Damit ist die Technik sowieso im zunehmenden Ruhezustand und die Frage der täglichen Nutzung und der besten Planung kann in den Vordergrund treten.

Das sind meine persönlichen Prognosen für IT-Infrastrukturen im Jahr 2015. Ich erhebe keinen Anspruch auf Vollständigkeit, es sind meine Favoriten. Sie lassen natürlich einigen Raum für Diskussionen. Das ComConsult Netzwerk- und IT-Infrastruktur Forum 2015 ist der beste Ort dafür.

zugeordnete Kategorien: LAN
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.