IT-Trends 2012 auf dem Prüfstand – was war wirklich wichtig?

Kommentieren Drucken

Traditionell zum Jahresende hat das Marktforschungsunternehmen Gartner die seiner Ansicht nach zehn wichtigsten Trends in der Informationsverarbeitung für 2012 vorgestellt. In den letzten Jahren haben sich diese Prog-nosen überwiegend bewahrheitet, allerdings teilweise zeitverzögert. Es wird auch oft missverstanden, dass die Marktforscher eigentlich mehr einen Dreijahreszeitraum meinen, also in diesem Fall die Spanne von 2012 bis 2015. Die Prognosen selbst werden hier nur kurz dargestellt, weil man ja genug Informationen darüber findet. Viel spannender ist die Frage, was das denn für die Entwicklung von Corporate Networks bedeutet.

Generell geht Gartner davon aus, dass es einen tiefgreifenden Wandel der Bedeutung der IT für die Geschäftswelt geben wird und nennt dies „postmodernes Business“. Gemeint ist damit, dass es eigentlich keine Geschäftsprozesse gibt, die nicht von Kollaboration und modernen IT-Hilfsmitteln unterstützt werden und sich darüber hinaus die IT mehr und mehr von der Rolle einer unterstützenden Dienstleistung zu einer gestaltenden Kraft entwickelt. Das ist ein mehr philosophischer Standpunkt und eher eine Extrapolation dessen, was wir täglich um uns herum erleben.

Konkret sind die nach Gartner zehn wichtigsten Trends folgende:

  1. Tablets und mehr. Benutzer werden mit steigender Tendenz unter mehreren Formfaktoren für Endgeräte wählen können, die sie im Rahmen ihrer Arbeit und privat mit unterschiedlichen Mobilitätsgraden benutzen. Das haben wir ja heute schon. An einem ggf. festen Arbeitsplatz gibt es noch einen Desktop, gesharte Arbeitsplätze werden mit Notebooks unterstützt, Tablets sind wesentlich leichter und damit noch mobiler und eigentlich verpasst man nichts Wichtiges, wenn man sein Smartphone dabei hat. Deshalb ist es auch richtig, von einem Formfaktor zu sprechen: Größe, Gewicht und Rechenleistung und damit die Qualität und Möglichkeiten der Ein- und Ausgabe sind unterschiedlich, die Basisfunktionalität ist aber gleich. Der Mechanismus der Apps kann dafür sorgen, dass alle benötigten Anwendungen überall prinzipiell gleichartig bereitstehen. Es ist letztlich die Entscheidung des Benutzers, was er im Moment am praktischsten findet. Allerdings wird er genau deshalb auch 3 bis 5 Geräte haben, die synchronisiert und verwaltet werden müssen.

    Was Gartner an dieser Stelle nicht so direkt sagt: Hersteller wie Apple, die diesen Trend aktiv gestalten und hier auch für jedermann über das gesamte Spektrum leicht zu bedienende und harmonische Geräte anbieten, werden auf der Gewinnerseite sein. Es reicht nicht, hier mit einem singulären Gerät einsteigen zu wollen, wie der aktuelle Misserfolg von Amazon zeigt.

  2. Mobil-zentrische Applikationen und Schnittstellen. Die in den letzten 20 Jahren verwendeten Benutzerschnittstellen stehen vor einem deutlichen Wandel. Touch-, Gesten- und Sprachsteuerung, die bei den mobilen Geräten bereits Einzug gehalten haben, werden sich weiter verbreiten. Das hat primär Konsequenzen für die Entwicklung von Anwendungen und wir wollen es hier nicht weiter verfolgen.
  3. Kontextuelles und soziales Benutzererlebnis. Kontext-sensitives Computing versucht, die Bedarfe und Vorlieben des Benutzers systematisch zu erfassen. Das ist eigentlich schon ein alter Bekannter aus dem E-Business. Je besser man den Benutzer kennt, desto gezielter kann man ihn mit Angeboten ansprechen. Gartner geht davon aus, dass sich das auf mehr Anwendungsbereiche ausweitet. Hierbei werden auch vernetzte soziale Informationen Einfluss haben.
  4. Das Internet der Dinge. Dieses Konzept beschreibt die Auswirkungen und Möglichkeiten der Erweiterung des Internets durch Anreicherung von Sensoren und anderen Endgeräten mit mehr Funktionen. Praktische Beispiele wären z.B. Zählerablesungen. Der von Tür zu Tür wandernde Zählerableser ist ein überflüssiges, extrem teures Relikt, wenn die Zähler die Daten via Internet an den Versorger melden können. Eine Vernetzung dieser Informationen mit den Endgeräten des Kunden ermöglicht diesem einen intelligenteren Umgang mit Energie. In Deutschland wird diese Entwicklung besonders von RWE vorangetrieben.
  5. App-Stores und Marktplätze. Apps werden heute vorwiegend für die private Nutzung gekauft. Das wird sich aber ändern und in zunehmendem Maße auch in allgemeine Geschäftsprozesse Einzug halten. Bis 2014 sollen laut Gartner jährlich 70 Milliarden mobile Apps aus App-Stores geladen werden.
  6. Next Generation Analytics. Nach Gartner wird die Entwicklung dahin gehen, aus historischen und Real-Time Daten-analysen Zukunftsszenarien mit einer wesentlich höheren Komplexität bei den verarbeiteten Basisdaten vornehmen zu können, wobei auch die Inhalte von Videos einbezogen werden können.
  7. Big Data. Die Menge und Komplexität der Daten wird die konventionelle Datenhaltung an ihre Grenzen treiben und diese schließlich überschreiten. Alleine für das Managen der Datenmengen werde man nach Gartner neue, exotische Technologien benötigen. Die Haltung der Daten in einem einzigen Data Warehouse wird mehr und mehr einer Umgebung weichen, in der die Daten von verschiedenen Stellen aus zusammengezogen werden müssen.
  8. In Memory Computing. Flash Speicher hat nach Ansicht von Gartner seinen Siegeszug im privaten Bereich bereits angetreten und wird wegen seiner vielen offensichtlichen Vorteile auch im Corporate Umfeld Einzug halten. Flash-Speicher öffnet den Weg für „In-Memory-Applikationen“ wie In-Memory Applikationsserver. Bereits 2012 und 2013 werden diese Anwendungen Mainstream werden.
  9. Extrem stromsparende Server. Es gibt den Gedanken, die Abwärmeproblematik (und damit den Stromverbrauch) von Servern dadurch in den Griff zu bekommen, dass man Komponenten einsetzt, die ursprünglich für mobile Geräte entwickelt wurden. Dadurch kann man die Anzahl der Prozessoren in einer bestehenden Raumeinheit, z.B. einem Rack oder einer Rack-Höheneinheit um den Faktor 30 steigern. Die individuellen Prozessoren haben dabei zwar weniger Leistung, die aber für viele Anwendungen absolut ausreichend sind. Wir diskutieren das noch.
  10. Cloud Computing. Dieser Trend sei noch jung und werde heute massiv von einigen wenigen Marktteilnehmern wie Oracle, IBM und SAP geprägt. Die dem Cloud Computing zugrunde liegenden Ideen seien jedoch dafür geeignet, die Industrie auf lange Zeit zu beeinflussen. Man werde in den nächsten Jahren neue Angebote sehen und besonders Microsoft sei jetzt schon sehr aktiv. Insgesamt werde der Konkurrenzkampf in diesem Bereich zunehmen.

Welche konkreten Konsequenzen haben nun diese Aussagen auf den Planungsprozess für Corporate Networks?

Nun, zunächst gibt es einige Punkte, die einfach so weit neben dem Gestaltungsraum von Netzwerken liegen, dass sie hier nicht weiter angesprochen werden müssen, wie 2,3, 5 und 6.

Für die Versorgungsbereiche in Corporate Networks ist natürlich Punkt 1 wirklich gravierend. Ich sehe auch heute noch die heftige Diskussion darüber, ob man nun Endgeräte mit einer tonnenschweren Kupferverkabelung oder Lichtwellenleitern versorgen soll. Hier gibt es quasi unversöhnliche Lager und jedes dieser Lager steckt Unmengen Zeit, Energie und Geld in seinen Standpunkt. Allen Diskussionen liegt der fast 40 Jahre alte Gedanke zugrunde, dass Mitarbeiter an festen Arbeitsplätzen sitzen, sich außer zum Gang auf die Toilette nicht bewegen und immer leistungsfähigere Endgeräte benutzen. Also müssen sie in Art eines Gießkannenprinzips mit Steckdosen zugepflastert werden, wobei hinter jeder Steckdose immer mehr Leistung liegt.

Das alles ist schlicht weltfremd! Zum einen haben verschiedene moderne Unternehmen bereits heute schon poolbasierte Arbeitsmodelle mit flexiblen Arbeitsplätzen. Zum anderen haben die Mitarbeiter schon zuhause eine ganz andere User Experience und besitzen dort schon einen Teil oder sogar die ganze Palette von Geräten mit unterschiedlichen Formfaktoren. Der Wireless DSL-Router ist die Zentrale und rückt in seiner Unverzichtbarkeit in die Nähe der Kaffeemaschine. Der Benutzer liebt den leichten und schnellen Wechsel der Endgeräte ohne Verzicht auf Funktion.

Mit zunehmender „Home Automation“ von der Energiesteuerung über elektrische Rolladen bis hin zu Sicherheitsfunktionen hat das Konzept schon längst die Ebene der reinen Unterstützung der Unterhaltungselektronik verlassen. Auf Wunsch kann sogar eine Modelleisenbahn (falls vorhanden) mit einer App vom iPhone bedient werden.

Nun fragt sich der Benutzer natürlich mit Recht, ob das Unternehmen, für das er arbeitet, eigentlich noch auf dem Stand der Dinge ist, wenn es ihm Datensteckdosen entgegenstreckt und die Versuchung, das Ganze durch den Einsatz der eigenen privaten Endgeräte einfach zu übergehen, ist gewaltig.

Ich darf vor allem die jüngeren Leser daran erinnern, dass es schon einmal eine vergleichbare Situation gab, nämlich Mitte der Achtziger Jahre (des letzten Jahrhunderts). Weltweit saßen Millionen Benutzer vor IBM- (oder ähnlichen) Terminals mit grünen Zeilen. Zuhause hatten sie aber schon die ersten DOS oder Window-PCs. Wenn man sie heute nochmal betrachtet, kann man sich gar nicht vorstellen, dass diese primitiven PCs eine Revolution eingeläutet haben, die letztlich alles auf den Kopf gestellt und überhaupt erst zur Einführung von Unternehmensnetzen geführt hat, wie wir sie heute kennen. Damals gab es erheblichen Druck von den Benutzern, die sich gefragt haben, ob ihr Arbeitgeber sie fahrlässig oder absichtlich vereiert. Das hat nicht nur zu Bestimmungen geführt, die wenigstens dafür gesorgt haben, dass die grünen Terminals weniger Strahlung hatten als ein Röntgenapparat, sondern auch zu völlig neuen Produkten wie LAN-Server mit Novell´s NetWare. IBM wurde gezwungen, völlig neue Wege zu gehen und Anbieter wie DEC, die das nicht konnten, wurden einfach weggespült. History repeats itself und jetzt sind wir mit durch eine strukturierte Verkabelung festgebundenen Benutzer-PCs wieder exakt am gleichen Punkt wie mit den grünzeiligen 3270-Terminals.

Das Corporate Network hat die Aufgabe, dem Benutzer WENIGSTENS die Hilfsmittel, die er von zuhause schon gewohnt ist, ebenfalls in der gleichen Leistungsfähigkeit und Bequemlichkeit für die Unternehmensanwendungen zur Verfügung zu stellen. Jetzt kann man natürlich lange darüber diskutieren, wie man das im Einzelnen macht. Dabei ist von der Netzseite z.B. zu bedenken, dass es sehr unterschiedliche Funkdienste gibt und das Heim-WLAN nach IEEE 802.11n sicher nicht in allen Fällen das geeignete Maß der Dinge ist. Hier wird in Zukunft auch die Durchgängigkeit der Diensterbringung unter verschiedenen Mobilitätsfaktoren eine große Rolle spielen. Ein Beispiel: als privater Benutzer kann man z.B. mit dem Notebook, dem iPad und dem iPhone innerhalb der Wohnung mit guter Leistung ins Internet gehen. Sobald man die Wohnung verlässt, läuft die Verbindung nicht mehr über das WLAN, sondern z.B. über einen 3G Provider. Das bedeutet, dass der eigentliche Dienst völlig unabhängig von Gerät und Standort ist, lediglich die Geschwindigkeit ist geringer.

Eine wesentliche Anforderung für ein Unternehmen ist es, diese Ortsunabhängigkeit und Durchgängigkeit von Diensten auch für seine Unternehmensanwendungen verfügbar zu machen. Dabei könnte neben der nachrichtentechnischen Lösung letztlich auch ein entsprechend abgesicherter Cloud-Service eine große Rolle spielen.

Die Frage der Sicherheit ist dabei natürlich elementar. Ich denke, man kann es völlig vergessen, dem Mitarbeiter irgendwelche Vorschriften in der Hinsicht zu machen, dass er seine privaten Geräte nur privat und andere Geräte geschäftlich nutzt. Das war schon in der Vergangenheit bei Notebooks kaum durchsetzbar. Es gibt in den USA durchaus den Trend, dem Mitarbeiter einfach 500 US$ in die Hand zu drücken, damit er sich davon ein Endgerät kauft, was er sympathisch findet und mit dem er umgehen kann. Das minimiert natürlich auch die Schulungskosten.

Also müssen die unternehmenskritischen Anwendungen und Daten nicht nur für einen weiten Bereich von Endgeräten passend dargestellt, sondern auch entsprechend geschützt werden und dieser Schutz darf keinesfalls in irgendeiner Weise vom tatsächlich benutzten Endgerät abhängen. Bei den Diskussionen, die ich darüber sehe, wundere ich mich aber immer wieder darüber, dass längst existierende Lösungen offensichtlich gerne ignoriert werden. Als konkretes Beispiel sehe ich das Online-Banking. Die „Sparkassen-App“ ist eine der meist genutzten Apps in Deutschland. Sie ist in weitem Bereich unabhängig von einem Endgerät und selbst wüste Datensammler wie Google oder Apple erhalten durch diese App keinerlei Zugang zu den inneren Daten der Rechenzentren der Sparkassen-Informatik GmbH. Der Trick dabei ist natürlich dieses kleine rote Zusatzkästchen zur Erzeugung transaktionsabhängiger TANs. Ich bin der Überzeugung, dass man genau auf dieser Basis auch Lösungen etwas höherer Eleganz finden kann.

Hinweis: weitere Informationen zu Entwicklung und Einsatz der neuen Endgeräte finden Sie in den aktuellen Artikeln und Videos von Dr. Suppan auf dem ComConsult Research Wissensportal und bei Study.tv. Ausführliche Darstellungen zur Sicherheit finden Sie in den Artikeln und Videos von Dr. Hoff, ebenfalls auf dem Wissensportal bzw. bei Study.tv

Das „Internet der Dinge“ kann man auch in diesem Zusammenhang sehen. Es wird je nach dem für ein Corporate Networks die Anforderung entstehen, neben den Endgeräten der Benutzer auch Sensoren und ähnliche Geräte in einem weiten Bereich zu unterstützen. Das kann eine große Anzahl von Geräten werden, allerdings werden sie auch jeweils keine besonders hohen Bandbreiteanforderungen haben. Unterschiede kann es hinsichtlich des Zeitfensters geben, in dem die Geräte bedient werden müssen. Man wird z.B. einem Feuermelder eine höhere Priorität einräumen müssen als einem Wasserzähler.

Glücklicherweise gibt es dafür aber eine sehr elegante Lösung: Wireless Mesh Networks. Sie sind strukturell optimal genau auf solche Problemstellungen vorbereitet. Wir haben sie ja vor einigen Jahren ausführlich diskutiert und dann anscheinend etwas aus den Augen verloren. Es hat sich gezeigt, dass das Konzept bei breitbandigen Anforderungen nicht so tragfähig war, wie man ursprünglich gehofft hatte und auch z.B. die Idee der Provider, mit Mesh Networks Versorgungsbereiche hochzuziehen, durch andere Technologien wirkungsvoller implementiert werden konnte. International hat hier besonders WiMax ein beeindruckendes Wachstum an all den Stellen, wo nicht wie in Deutschland auf eine Überversorgung mit Kabeln zurückgegriffen werden konnte, an den Tag gelegt, allerdings auch mit Hilfe des in WiMax enthaltenen Mesh-Konzeptes für besondere Versorgungssituationen. Corporate Networks werden in den meisten Fällen mit Wireless Mesh Networks nach IEEE 802.11s, die ja von verschiedenen Herstellern angeboten werden, gut bedient sein.

Hinweis: weitere Informationen zur Entwicklung von Wireless Systemen finden Sie für den Fernbereich in meiner Serie „Wireless World“ und für den WLAN-Bereich in meiner Serie „Digitale Nachrichtenübertragung“ auf der Informationsplattform.

Der nächste das Netzwerk betreffende Themenbereich ist „Big Data“. Diese Prognose hat die gleiche Eintrittswahrscheinlichkeit wie Weihnachten, nur leider ohne festen Termin. Die Frage ist also eher: wie können Corporate Networks so gestaltet werden, dass der Übergang in eine Phase, in der die Menge der Daten das überschreitet, was ein Unternehmen sinnvollerweise noch lokal vorrätig hat, möglichst reibungslos verläuft?

Die Antwort besteht aus mehreren Teilen und man muss ganz klar konstatieren, dass einige benötigte Technologien einfach noch nicht fertig sind. Tröstliches kommt zunächst von den Herstellern von Speichersystemen, wie EMC, IBM oder HP selbst. Wie wir auf dem Storage Forum der ComConsult Akademie eindringlich sehen konnten, vollziehen die Hersteller alle eine Abstraktion der Daten von den Datenträgern bzw. Geräten, was man auch als „Storage Virtualisierung“ bezeichnen kann. Dadurch werden verschiedene komfortable Funktionen wie Deduplizierung und das automatische QoS-orientierte Zuweisen von Volumes an Geräte möglich. Das ermöglicht dem Betreiber die flexible Anpassung seiner Storage-Lösung und deren Anforderungen an die vom Markt angebotenen Möglichkeiten. In Rahmen einer freizügig benutzbaren Speicherhierarchie kann er auch im Laufe der Zeit neu aufkommende Technologien, wie professionell nutzbare SSD-Speicher, elegant eingliedern und gleichzeitig von den möglichen Kostenvorteilen durch eine verteilte Beschaffung profitieren. Natürlich suchen die Hersteller über diese Schiene Alleinstellungsmerkmale und am Ende bleibt nichts anderes übrig, als sich für längere Zeit auf einen Hersteller zu konzentrieren.

Auf der Seite des die so entstehenden SANs unterstützenden Netzwerks sieht das allerdings noch nicht so rosig aus. Trotz der erheblichen Anreicherungen von Ethernet durch die DCB-Funktionen und iSCSI gibt es immer noch Fibre Channel und Infiniband als ernst zu nehmende Konkurrenten. Während man mittelfristig die Hoffnung hegen kann, dass zumindest die Integration von FC auf angereichertes Ethernet auch in größeren Szenarien funktionieren könnte, ist Infiniband den Einzeltechnologien bzw. der dann entstehenden konvergierten Technologie so haushoch überlegen, dass sich viele Betreiber für diese Technologie entscheiden werden, wenn es wirklich um Performance geht. Selbst wenn wir das als Sonderfall außer Acht lassen, wird auch die konvergierte Ethernet-Umgebung mittelfristig nicht um weitere Leistungssteigerungen herumkommen. 100 GbE wird schneller an Grenzen stoßen als es vielen lieb ist. Allerdings kann man hier durch die bisherigen Definitionen des skalierbaren Ethernet in IEEE 802.3ba wenigstens den Weg sehen: massive Parallelisierung. In RZs wird 100 GbE auf Strecken unter 200m technisch als 10 X 10 GbE implementiert. Die ersten Muster für Terabit Ethernet-Transceiver bestehen überwiegend aus 10 100 GbE-Transceivern, die ihrerseits wiederum aus 4 X 25 oder 10 X 10 GbE-Komponenten zusammengesetzt sind. Hier sehen wir die schon länger prognostizierte Synergie zwischen hochdichter elektronischer VLSI-Technologie und integrierter optischer Technologie. Davon wird natürlich auch iSCSI im Rahmen integrierter Off-Load-Prozessoren erheblich profitieren.

Ein Betreiber kann das heute eigentlich nur dadurch vorbereiten, dass er voll und ganz auf Kupferverkabelung verzichtet. Terabit-Komponenten sollte man erst dann kaufen, wenn sie wirklich benötigt werden. Außerdem würden dann ja noch neue Switches fällig, aber es besteht eine hohe Wahrscheinlichkeit dafür, dass sich RZ-Netze in den nächsten Jahren soweit verändern, dass ihre Funktion zwar erhalten bleibt, aber nicht mehr mit einer Ansammlung von Kästen und Leitungen dazwischen, sondern durch Erweiterungen der Server im Rahmen eines ScaleOut-Konzeptes implementiert wird.

Ein anderer Bereich ist die Fernkommunikation. Heute gehen wir dieses Thema primär im Kontext der RZ-Kopplung an. Aber die Prognose von Gardner beinhaltet ja, dass die Daten in Zukunft wesentlich verteilter sein werden. Folglich benötigt man leistungsfähige Fernkommunikation für den Zugriff auf diese Daten. Technisch gesehen liegt der Hase hier aber so tief im Pfeffer, dass man noch nicht einmal seine Ohrspitzen sehen kann. Wirklich erschreckend waren in dieser Hinsicht die gemeinsamen Vorstellungen von Cisco, VMware und EMC bzw. Brocade, VMware und Hitachi zu Konzepten für weit wandernde Virtuelle Maschinen. Um es deutlich zu sagen musste in beiden Vorstellungen auf den absoluten Dinosaurier der Fernkommunikation, nämlich SONET, zurückgegriffen werden, sobald man minimale Leistungsanforderungen überschreiten wollte. Der Kandidat Carrier Ethernet ist offensichtlich noch nicht so weit, wie er sein sollte. Die Fernkommunikation rollt das Konvergenzthema völlig neu auf. Ohne schwerwiegende Modifikationen ist es nämlich nicht möglich, FCoE auf Fernstrecken erfolgreich zu betreiben. Das liegt an der inhärenten Plesiochronität des FC, die weder durch FCoE noch durch angereichertes Ethernet in irgendeiner Weise unterstützt wird. FCIP könnte damit umgehen, ist aber ein Exot. Es könnte durchaus sein, dass iSCSI hier punktet. Die Terabit-fähige optische Übertragungstechnologie ist mit DWDM ja durchaus vorhanden und es gibt auch Hersteller wie Ciena, die das Problem schlicht dadurch lösen, dass sie jedweden Datenstrom in G.709 wrappen und das dann übertragen. Was man eigentlich noch braucht, ist eine optische Technologie zur flexiblen Zuweisung von Bandbreiten auf Wellenlängen. Das wird z.Zt. z.B. vom deutschen Hersteller Adva Optical entwickelt. Das alles sind aber richtige Providertechniken und die Kernfrage bleibt, welche Kombination dieser Techniken letztlich so erschwinglich wird, dass sie auch vom Betreiber eines durchschnittlichen Corporate Networks eingesetzt werden kann.

Ich kann der These von Gartner nur zum Teil zustimmen. „Big Data“ wird schneller kommen, als uns allen lieb sein kann, aber vor der wirklichen Verteilung müssen noch erhebliche technische Probleme gelöst werden.

„In-Memory Computing“ wirkt als Begriff zunächst einmal ungewohnt. Es geht einfach darum, dass heute Prozessoren und Speicher in integrierter VLSI-Technologie meist getrennt ausgeführt sind, also einerseits gibt es Prozessoren mit relativ wenig, aber dafür schnellem Speicher und andererseits Speicherchips. Mit zunehmender Integrationsdichte besteht jedoch keinerlei Grund dafür, das in dieser Art aufrecht zu erhalten. Statt immer mehr Prozessoren auf einen einzigen Chip zu bringen, könnte man ja besonders beim Übergang auf die 22 nm Technologie die Anzahl der Prozessoren auf ein vernünftiges Maß beschränken und die damit auf der Fläche gewonnenen Transistoren in Form eines Flash-Speichers verschalten. Es gibt mit der modernen Prozessortechnologie eigentlich nur zwei wirkliche Probleme: die Beschäftigung der vielen Prozessoren und die Kommunikation dieser Menge leistungsfähiger Prozessoren mit der Außenwelt. Ein wesentlicher Teil der Außenwelt sind Speicher. Also kann man das I/O-Problem dadurch entschärfen, dass sich die erste und schnellste Stufe einer Speicherhierarchie direkt auf dem Chip befindet, auf dem auch die Prozessoren sind.

Andererseits gibt es Anwendungen, die extrem davon profitieren, dass man einen Speicher an Ort und Stelle mit Rechenkapazität ausstattet. Ein gutes Beispiel dafür sind die neuen speicherbasierten Switch-ASICs, die mittlerweile von fast jedem Netzwerk-Hersteller verbaut werden. Diese ASICs sind in der überwiegenden Anzahl der Fälle schlicht extrem schnelle Speicher mit zusätzlicher Intelligenz. Grob gesprochen wird der Switching-Vorgang durch eine Änderung der Zuweisung eines ganz oder teilweise zwischengespeicherten Paketes von einem Ein- auf einen Ausgangsport realisiert. Alle bekannten Zusatzfunktionen von der DCB-Schlangenbildung über die differenzierte Priorisierung, die Rate-Conversion und jede Art von Offload- oder Flow-Konzepten lassen sich so extrem elegant implementieren. Natürlich gibt es auch Beispiele aus z.B. Datenbankanwendungen, aber gerade die neuen Switch-ASICs sind ja etwas, was den Netzwerker besonders interessieren sollte.

Extrem stromsparende Server auf der Grundlage von Prozessoren, die eigentlich für mobile Anwendungen gedacht sind, sind durchaus eine Idee, über die es sich nachzudenken lohnt. Nachdem Intel Moore´s Law durch die Einführung der 22nm-Technologie auch für die nächsten Jahre zementiert hat, stellt sich tatsächlich die Frage, was man eigentlich mit den vielen hoch leistungsfähigen Rechnerkernen anstellen soll. Durch die Virtualisierungssoftware können sie natürlich beschäftigt werden, aber durch die Leistung der Prozessoren steigt ja auch die Anzahl der möglichen VMs pro Prozessor.

Wir sprechen gerne über Hochleistung. Aber jedes Unternehmen hat auch eine Reihe langweiliger Anwendungen, die eigentlich niemals wirkliche Leistung benötigen. Das sind z.B. alle Anwendungen, die auf alten, kleinen Servern gut liefen und schon in der ersten Virtualisierungswelle problemlos auf virtualisierte Server portiert werden konnten, die höchstens ein Hundertstel der Leistung, die wir in 2012 für die neuen Server sehen werden, hatten. Jetzt steht das Unternehmen irgendwann wieder vor der Frage, was nun mit den alten Anwendungen passieren soll. Und da ist es durchaus eine gute Idee, sie auf die neuen, extrem sparsamen Server auszulagern. Schließlich könnte man das Konzept der wandernden VMs auch dazu benutzen, einige wenige Hochleistungsserver (mit entsprechendem Verbrauch) richtig gut auszunutzen und in Hochlastfällen auf ein Feld von Niedrigenergieservern auszuweichen. Ob sich das rechnet, ist letztlich davon abhängig, was diese Server kosten.

Für das Netzwerk bedeutet das, dass wir einen immer weiter andauernden Konzentrationsprozess durchlaufen. Die heute als Minimum genannte Datenrate von 10 GbE für einen Serveranschluss werden wir schnell nach oben korrigieren müssen. Allerdings werden es mit der Zeit immer weniger Verbindungen.
Das ist verfügbare Technik. Spannender ist allerdings die Frage nach der Kommunikation zwischen den Virtuellen Maschinen und dem Netzwerkanschluss. Hier gibt es ja einen weiten Bereich von Technologien, von denen viele noch erheblich zu langsam sind.

Cloud Computing ist ein extrem wichtiges Thema, welches in diesem Artikel nicht so kurz beleuchtet werden kann wie die anderen Themen. Es ist auch in permanenter Entwicklung und ich bin überzeugt, dass wir mit der Zeit sehen werden, dass Vieles, was wir heute mit Recht bemängeln, einfach zu den Kinderkrankheiten gehört, die sich auswachsen werden. Das wird so wie bei Ethernet funktionieren. Zu Beginn war es schlicht unwissend zusammengebastelter nachrichtentechnischer Schrott, heute ist es ein WELT-Standard für die Vernetzung. Und so wird auch Cloud Computing für uns noch einige Überraschungen bereithalten.

Für den aktuellen Stand bei Cloud Computing und der Sonderform Cloud Storage verweise ich auf die hervorragenden Studien und Videos von Herrn Dr. Suppan zu diesem Themenbereich. Diesen habe ich momentan inhaltlich auch nichts hinzuzufügen.

Fazit

Die von Gartner identifizierten Bereiche zeigen mit Sicherheit einige wesentliche Entwicklungen auf, die bereits stattfinden oder denen wir uns in naher Zukunft stellen müssen. Bezogen auf die Unternehmensnetze kann man sagen, dass mit Ausnahme einer hoch leistungsfähigen Fernkommunikation eigentlich alles, was wir benötigen, bereits fertig ist oder in den Startlöchern steht. Allerdings wird man sich in der Zukunft von dem bisher gepflegten Gießkannenprinzip und vorauseilenden Beschaffungsstrategien verabschieden müssen. Gefragt und einzig wirtschaftlich ist eine bedarfsorientierte Planung mit kurzen Zeiträumen, die sich extrem schnell an geänderte Bedingungen anpassen kann. Es wird in vielen Fällen kein Stein mehr auf dem anderen bleiben. Geliebte und über Jahrzehnte gepflegte Bereiche, wie die vollverkabelte Benutzerversorgung oder das dreistufig ausgelegte RZ-Netz können innerhalb von Wochen in eine Situation geraten, in der sie weder leistungsfähig noch in irgendeiner Weise tragbar sind. So kann z.B. die Mobilität der Benutzer dazu führen, dass das teure Kabelnetz nur noch der Gebäudestatik dient. Die Einführung einer neuen Generation von Servern kann dazu führen, dass die bisherigen teuren Core-Switches einfach dadurch überflüssig werden, dass die Server selbst Switch-ASICs enthalten, die via einer ScaleOut-Software zu einem Netz zusammengeschaltet werden können.

All dies bedeutet natürlich ein erhebliches Umdenken und man kann eigentlich nur noch wenige Hinweise für allgemein gültige Strategien geben. Dazu gehört die absolut strikte Orientierung an Standards, der Verzicht auf metallische Leitungen an allen Stellen, wo Leistung benötigt werden könnte und die Einführung von bisher wirklich stärker als sonst an den tatsächlichen Bedarfen orientierten, flexiblen Beschaffungsmethoden.

Wie sagt Dr. Suppan: „es bleibt spannend“!

zugeordnete Kategorien: LAN
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.