Die Top-IT-Infrastruktur-Themen der nächsten Jahre: To-Do-Liste für Entscheider


Im jährlichen Rhythmus veröffentlichen die einschlägig bekannten Analysten ihre Zukunfts-Prognosen. Da ist dann u.a von Robotik, Machine Learning und autonomen Fahren die Rede. Sicher interessant zu lesen, aber nicht immer mit einer direkten Relevanz für anstehende IT-Entscheidungen.

Deshalb soll hier an anderer Ansatz gewählt werden, den wir auch auf unserem diesjährigen Netzwerk Forum diskutieren werden.

Das Ziel dieser Analyse ist die Angabe einer Liste von

  • Entscheidungen, die jetzt für die Zukunftstauglichkeit unserer IT-Infrastrukturen erforderlich sind

Diese Analyse stellt deshalb die Fragen:

  • Welche Entwicklungen der nächsten Jahre werden unsere IT-Infrastrukturen verändern?
  • Welche Anforderungen, die planerisch vor uns liegen, sehen wir im Moment?
  • Und welche Entscheidungen sollten deshalb jetzt getroffen werden?

Persistenter Speicher für Container – Microservices jetzt auch stateful


Container und ihr Einsatz in der Unternehmens-IT sind derzeit in aller Munde. Die Popularität dieser Technologie stieg sprunghaft an, seit die Firma Docker eine Plattform zum einfachen und intuitiven Ausführen, Verteilen und Entwickeln von Containern veröffentlichte. Darüber hinaus wird z.B. über das immens populäre Kubernetes-Projekt eine Lösung zur automatisierten Orchestrierung von großen Zahlen von Containern bereitgestellt. Auf dieser Basis halten Container vermehrt Einzug in die produktionskritischen Bereiche der Unternehmensrechenzentren.

Der ursprüngliche Gedanke bei der Entwicklung von Containern war, dass sie prinzipiell flüchtig sind. Bei Bedarf werden neue Instanzen gestartet, wenn sie nicht mehr benötigt werden verschwinden sie wieder zusammen mit möglichen Veränderungen in den Daten. Da vermehrt auch Applikationen „containerisiert“ werden, die Zugriff auf persistente Daten benötigen, ist dieser Ansatz nicht mehr ausreichend.

In diesem Artikel stelle ich die wichtigsten Technologien für die Bereitstellung von persistentem Speicher sowohl für einzelne Container als auch in Orchestrierungsplattformen vor.

Neue Herausforderungen für das Netzwerk durch Gebäudeautomation


Hinter vorgehaltener Hand hört man schon mal, dass man im Zeitalter der Clouds Netzwerker bald nicht mehr benötigen würde. Was immer man braucht, könne man auf einer Weboberfläche per Mausklick in der Cloud schnell zusammenstellen. Da fühlt man sich dann als eingefleischter Netzwerker wie ein Angestellter beim Braunkohletagebau nur ohne die Milliarden an Ausstiegshilfen.

Verfügbarkeit von Cloud-Diensten: Ein unterschätztes Problem


Das letzte Jahr ist für die Welt der Microsoft Cloud nicht gut zu Ende gegangen und das neue Jahr hat auch nicht gut begonnen. Microsoft meldet seit geraumer Zeit für verschiedenste Cloud-Dienste von Office 365 bis zu Azure immer wieder Verfügbarkeitsprobleme. Um ein paar Beispiele zu nennen: Mal funktioniert der Cloud-Speicher für mehrere Stunden nicht, Skype und E-Mail gehen nicht, die Anmeldung an allen möglichen Diensten klappt über einen längeren Zeitraum nicht und als GAU wurde jetzt kürzlich ein Datenverlust bei Azure SQL-Datenbanken gemeldet

IT-Infrastrukturen für das Gebäude der Zukunft


Unsere Welt verändert sich. Was sonst! Auch die Anforderungen an moderne IT-Infrastrukturen verändern sich. Was bisher gut und vernünftig war, ist morgen nicht mehr ausreichend. Dieser Beitrag beschreibt die Anforderungen an das IT-Netz eines modernen Gebäudes, mit dem Anspruch, auch in den nächsten Jahren noch für die aufkommenden Aufgaben gewappnet zu sein. Wer heute in der Planung eines neuen Gebäudes diese Anforderungen nicht berücksichtigt, wird in Zukunft mit Problemen in der Vermarktung des Gebäudes und mit Unzufriedenheit der Nutzer zu kämpfen haben. Nicht alles, was heute machbar ist, ist auch im ersten Schritt zu realisieren. Es muss aber darauf geachtet werden, dass Techniken ohne großen Aufwand nachgerüstet werden können. Die Basis für die neuen Techniken muss im Gebäude angelegt werden. Ansonsten wird man sich schneller als gedacht mit der Frage einer aufwändigen technischen Ertüchtigung einer Bestandsimmobilie befassen müssen.

Wenn man wissen will, wohin die Reise geht, ist es immer wichtig zu wissen, woher man kommt. Es wird deshalb im Folgenden erst die bisherige Entwicklung beschrieben und dann auf die relevanten Bereiche eingegangen, die die neuen Entwicklungen maßgeblich beeinflussen.

Anforderungen von Cloudanwendungen an Netzwerke – ein Beispiel


IT-Clouds bestehen nicht aus Luft und Wasser, sondern aus Servern und Netzen. Doch kann man sich als Anwender die Frage stellen, ob man nicht auf das entsprechende Wissen über diese Basis-Bausteine verzichten kann, da doch alles vom Cloud Provider gemanagt wird und somit Server-Administratoren und Netzwerker vom Planer bis zum Betreiber überflüssig werden. Und sicher: Kabelziehen und Karten oder Speichererweiterung in Servern einbauen braucht der Cloud Nutzer selbst nicht mehr. Ebenso wenig muss man sich um die physikalische Infrastruktur innerhalb eines Cloud-Rechenzentrums kümmern. Trotzdem wird das Wissen um Netzwerkfunktionen und IT-Infrastrukturen weiterhin benötigt.

Aus welchen Elementen Cloud-Netze bestehen und wie skalierbare Anwendungen in der Cloud realisiert werden können, wurde bereits in anderen Insider-Artikeln behandelt. In diesem werden diese Elemente nun in einem fiktiven Beispiel zusammengeführt. Dabei soll exemplarisch aufgezeigt werde, warum auf das Wissen um IP-Netze keinesfalls verzichtet werden kann.

Power over Ethernet: wofür, womit, durch wen – Grundsatzentscheidung dringend gefordert!


Power over Ethernet kombiniert Strom und Netzwerkanschluss. Je mehr Strom wir dabei transportieren können, desto weiter spannen sich die Anwendungsfelder. Und mit 100W lassen sich viele Technologien und Geräte betreiben. Dies reicht von der Beleuchtung über Medientechnik bis hin zu kompletten Arbeitsplatz-PCs. Und die Liste der möglichen Nutzungen wird täglich länger.

Lassen Sie uns aber gleich zum Elefanten im Raum kommen. Dies ist die Frage der Nutzbarkeit von Datenkabeln UND Stecksystemen zur Übertragung von Gleichstrom. Wie heiß werden die Kabel? Welche Konsequenzen haben Bündel? Produzieren Steckverbindungen Funken? Welche Längen sind möglich? Tatsache ist, dass alle diese Fragen leicht beantwortet werden können und bei Einhaltung der einschlägigen Verkabelungsstandards und darauf aufsetzender Empfehlungen auch Bündelsituationen keine große Herausforderung sind. Ja, man kann das falsche Kabel auswählen oder Fehler bei der Verlegung machen, aber dies sind nicht wirklich die herausragenden Probleme. Details zur Auslegung von PoE-Kabelsystemen werden wir auf unserem Netzwerk-Forum und unserem Forum zu IT- und TGA-Infrastrukturen im März besprechen.

Weiterlesen »

5G-Mobilfunk – selbstgebaut?!


„5G“ ist derzeit wieder in aller Munde. Das liegt vor allem daran, dass die Bundesnetzagentur demnächst zwei Mal 60 MHz bei 2 GHz und den Bereich 3,4 bis 3,7 GHz versteigern will. Bis zum 25. Januar können sich die interessierten Unternehmen dafür bewerben. Über die Auflagen ist viel diskutiert worden, insbesondere über die Verpflichtung, bis Ende 2022 mindestens 98% der Haushalte mit mindestens 100 Mbit/s über Mobilfunk versorgen zu müssen. Interessant dabei ist, dass jetzt nur so genannte „Kapazitätsfrequenzen“ versteigert werden, man aber für die Versorgung der ländlichen Gebiete „Flächenfrequenzen“ benötigt, also Frequenzen unter 1 GHz, die gute Reichweiten und Durchdringung von Gebäuden versprechen. Diese Frequenzen sind aber bereits an die Provider vergeben.

Künstliche Intelligenz erobert die IT


Künstliche Intelligenz (KI) ist inzwischen an vielen Stellen ein fester Bestandteil unseres Alltags und zu einem Grundbestandteil von einer Vielzahl von Diensten und Anwendungen geworden. Beispiele sind sprachbasierte Assistenzsysteme wie Amazon Echo (bzw. Alexa), Sprachübersetzungen z.B. mit dem Google Übersetzer und Chat Bots, die automatisiert Nutzeranfragen beantworten. Autonomes Fahren im Straßenverkehr ist ohne KI zur Erkennung der Umwelt undenkbar. Fehlentscheidungen einer KI könnten hier jedoch höchst gefährliche Konsequenzen haben.

KI ist daher ohne Zweifel in vielen Bereichen auch mit Risiken verbunden. Um diese Risiken einschätzen zu können, betrachten wir zunächst kurz die Techniken, die bei KI zum Einsatz kommen, und untersuchen dann Beispiele für aktuelle Anwendungsbereiche insbesondere in der Informationssicherheit genauer. Es wird sich dabei zwar zeigen, dass KI ausgesprochen erstaunliche Potentiale, jedoch auch höchst interessante Nebenwirkungen haben kann und neue Angriffsvektoren ermöglicht. Daher muss überlegt werden, welche Sicherheitsmaßnahmen hier erforderlich und nach dem aktuellen Stand der Entwicklung auch möglich sind.

Verteilte, parallele Dateisysteme – Definition, Geschichte und aktueller Stand von Hochleistungs-Dateisystemen


In den meisten Unternehmen haben Daten einen enormen Wert. Seien es Pläne für neue Produkte, die die Zukunftsfähigkeit des Unternehmens sicherstellen sollen oder Daten, die aufgrund rechtlicher Vorgaben verfügbar sein müssen. Diese Daten befinden sich im Allgemeinen auf einem zentralen Speicher, der ausfallsicher und ausreichend performant dimensioniert ist. In manchen Bereichen, z.B. Medienbearbeitung oder Big Data, kann die Skalierbarkeit eines zentralen Systems allerdings an seine Grenzen stoßen. Auch bei einem Zugriff vieler verschiedener Clients auf ein einzelnes Storage-System kann das Storage-Netzwerk einen Flaschenhals bilden. In diesem Fall bietet sich an, die Daten auf viele „kleinere“ Server zu verteilen, die dann ein großes Dateisystem bilden und zusammen die Anfragen von Clients beantworten und so eine bessere Auslastung des Netzwerks erreichen. Dies kann mit verteilten, parallelen Dateisystemen erreicht werden.

In diesem Artikel sollen die Geschichte dieser Technologie sowie die technischen Grundlagen erläutert werden. Dabei werden sowohl Vor- als auch Nachteile beschrieben und aktuelle Beispiele für deren Einsatz aufgeführt.

Das Netzwerk der Zukunft: warum es existiert und was anders als bisher ist


Unser ComConsult Netzwerk Forum 2019 stellt das Thema “Das Netzwerk der Zukunft” in den Vordergrund. Anders formuliert: die Frage wie sich der Bedarf entwickelt und was man von der Planung bis zum Betrieb machen muss, um diesen Bedarf abzudecken.

Wie immer bei unseren Foren erarbeiten im Moment unsere Research-Teams das Basis-Material für das Forum. Projekt-Erfahrungen des laufenden Jahres werden ausgewertet, wir sprechen mit den Produktverantwortlichen der Hersteller und wir entwickeln unsere eigene Analyse des zukünftigen Bedarfs. Schon jetzt ist klar: dies wird ein großes und wichtiges Forum, vielleicht das wichtigste der letzten 10 Jahre.

Security by Design: Leichter gesagt als getan


Die Arbeit in der operativen Informationssicherheit ist neben der nachhaltigen Umsetzung von Sicherheitsmaßnahmen wie Virenschutz, Firewalling und Co. geprägt vom Management von Schwachstellen und Sicherheitsvorfällen, die oft ihre Ursache in Fehlern in einer Software oder (Spectre lässt grüßen) auch auf Hardware-Ebene haben. Wenn eine Schwachstelle nicht schnell genug gepatcht werden kann, bleibt der Informationssicherheit oft nur eine Risikominderung durch manchmal sehr aufwändige alternative Maßnahmen, wie z.B. die Trennung der Systeme in eine eigene Sicherheitszone hinter einer Firewall in Verbindung mit der Analyse des Kommunikationsverkehrs hinsichtlich Anomalien über Intrusion Prevention auf der Firewall.

Ein „Cloud Starter-Kit“ oder was ist beim Einstieg in die Cloud zu beachten?


Cloud Computing ist zweifellos die wichtigste technologische Entwicklung unserer Zeit mit tiefgreifenden Auswirkungen für alle Unternehmen. Wesentliche Formen von Cloud Computing – insbesondere SaaS (Software as a Service) – zeigen alle Merkmale sowohl exponentieller als auch disruptiver Technologien. Oder anders formuliert: Niemand kann sich entziehen und in weiten Bereichen wird die IT, wie wir sie kennen, komplett umgekrempelt werden.

Über die Gründe hierfür, sowie über die Gefahren und Auswirkungen des Gangs in die Cloud wurden in diesem Medium und auch auf unzähliger unserer Veranstaltungen schon oft geschrieben bzw. gesprochen. Das Ziel des vorliegenden Artikels ist es daher nicht, diese Diskussionen erneut aufzuwärmen, sondern Kriterien und Maßnahmen aufzuzeigen, die Unternehmen den Einstieg in die Welt des Cloud Computings erleichtern und einen allzu blauäugigen Umstieg auf Cloud-Anwendungen verhindern sollen – ein Einsteiger-Kit für die Cloud so zu sagen.

Beginnen wir ganz grundlegend: Was bedeutet Cloud Computing? Wie unterscheidet sich Software as a Service von klassischen Anwendungen?

Non Volatile Memory express over Fabric – Der Turbo für das SAN


Auch in Zeiten von Hyper-Converged-Infrastructure, der zunehmenden Verbreitung von verteilten Dateisystemen und dem wachsenden Einsatz von Cloud Storage bleibt zentraler SAN-Speicher in vielen Unternehmen gesetzt. Insbesondere für „mission critical“ Applikationen mit hohen Performance- und Verfügbarkeitsanforderungen ist weiterhin blockbasierter Speicher die erste Wahl. Über lange Zeit basierte die Speicherkommunikation im blockbasierten SAN, ebenso wie innerhalb von Servern, letztlich auf der Übertragung von SCSI-Befehlen. Die Einführung der NVM Express (NVMe) Schnittstelle hat hier einen deutlichen Leistungssprung ermöglicht, der nun auch auf das Speichernetzwerk übertragen wird. Man könnte sagen, NVMe over Fabric ist die erste Technologie seit Fibre Channel (vor mehr als 20 Jahren), welche von Grund auf für vernetzten Speicher entwickelt wurde.

Sowohl in Enterprise-Servern als auch Consumer-Produkten vollzieht sich bei der Anbindung von SSD-Festplatten aktuell der Wandel von traditionellen Schnittstellen wie SAS, Fibre Channel oder SATA hin zu NVMe.

Die Rolle des Smartphones im Unternehmen der Zukunft


Das Smartphone und seine Nutzungsformen sollten neu überdacht werden. Die These hier zur Einleitung ist:

  • Unternehmen sollten erwägen, das Smartphone zu einem Standard-Endgerät für jeden Mitarbeiter zu machen
  • Das konkrete Gerät sollte strikt am Unternehmensbedarf orientiert werden und für die Nutzung der im Unternehmen eingesetzten Apps optimiert sein. Dies betrifft zum Beispiel die Nutzung des Smartphone als Kollaborations-Endpunkt, seinen Einsatz bei Multifaktor-Authentifizierung oder zur Nutzung von Gebäude-/Büro-bezogenen Apps für den Zugang, die Lichtsteuerung, die Heizungs- und Lüftungssteuerung etc.
  • Die Nutzung des Smartphones sollte in ein generelles Mobility-Konzept mit einem starken Security-Anteil integriert sein, wenn dies nicht sowieso schon der Fall ist

TCP im IoT – manchmal anders als gewohnt!


Das Internet der Dinge (IoT) hält so manche Überraschung bereit. Zum einen, was die Art und Fähigkeiten der Produkte angeht – insbesondere im häuslichen Umfeld. Zum anderen, was die Datenübertragung angeht. Ich war jedenfalls neulich ziemlich erstaunt und habe dazugelernt.

Mein Kunde auch. Er entwickelt eine Smartphone-Anwendung („App“) und die dazu passende Server-Komponente im Internet („Cloud“). Beides dient der Steuerung eines IoT-Geräts, nennen wir es „Getränkeautomat“. Möchte der häusliche Anwender sich ein Getränk zubereiten, kann er sich dabei von der App unterstützen lassen, wenn er möchte. Zu diesem Zweck verfügt der Getränkeautomat über ein WLAN-Modul, über das er eine TCP-Verbindung zum Cloud-Server aufbaut. Die Smartphone App macht das genauso.

Georedundante Rechenzentren: Warum klare Begriffsdefinitionen wichtig sind


Seit dem Erscheinen meines letzten Artikels zu georedundanten Rechenzentren im Netzwerk Insider vom August 2016 sind über zwei Jahre vergangen. In der Zwischenzeit sind wir bei ComConsult um Erfahrungen in einigen Goeoredundanz-Projekten reicher. Dieser Artikel soll auf der Basis dieser Erfahrungen vermitteln, warum in Projekten zur Realisierung der RZ-Geo-redundanz klare Begriffsdefinitionen besonders wichtig sind.

Das mag banal klingen. Jedoch haben wir immer wieder festgestellt, dass ohne eindeutige Definition von zentralen Begriffen im Zusammenhang mit georedundanten Rechenzentren Erwartungshaltungen bei der Realisierung der Projektziele divergieren können. Es kommt leider oft vor, dass es in den Köpfen unterschiedliche Verständnisse dieser zentralen Begriffe existieren.

Im Folgenden werden Definitionen für einige zentrale Begriffe vorgeschlagen. Es kommt weniger auf die 1:1-Übernahme der hier vorgeschlagenen Termini als vielmehr darauf an, dass die damit bezeichneten Sachverhalte und Mechanismen unterschieden und eindeutig bezeichnet werden.

Kollaboration am Arbeitsplatz oder warum Team Kollaboration die nächste große Welle nach UCC ist


Viele von Ihnen, die heute in den Unternehmen, Behörden und öffentlichen Einrichtungen mit dem Thema Kommunikation am Arbeitsplatz beschäftigt sind, stehen vor dem Problem, dass die Anzahl an neuen Lösungen und Technologien in immer höheren Taktzahlen eintreffen.

Haben wir bis vor wenigen Jahren unseren Focus rein auf Telefonie Dienste und Call Center Anwendungen richten müssen, so haben sich in den letzten vier bis fünf Jahren eine Vielzahl weiterer Kommunikationskanäle dazu gesellt oder drohen wegzubrechen.

Mobilität und die Cloud verändern die Videokonferenz, erhebliche Veränderungen im Markt sind zu erwarten


Die Auswahl einer Videokonferenzlösung war in der Vergangenheit eine überschaubare Aufgabe. Angesichts der Kosten nicht immer trivial, aber in Summe mit einer Komplexität versehen, die sich gut beherrschen ließ.
Dies hat sich grundlegend gewandelt. Die traditionelle Videokonferenz wird im Moment abgelöst durch ein neues Verständnis von Meeting und Kommunikation. Damit eng verknüpft sind deutlich erweiterte und komplexere Anforderungs-Kriterien. Die Preismodelle sehen zwar total anders aus als in der Vergangenheit, trotzdem sind die Gesamtkosten durch eine erhebliche Erweiterung der Teilnehmerkreise gestiegen.

Ohne Security Operation Center keine effektive und effiziente Angriffsabwehr


Ein Kernelement der operativen Informationssicherheit ist das effiziente und effektive Management von Schwachstellen und Sicherheitsvorfällen.

Wir benötigen hierzu eine zentrale Stelle an der sicherheitsrelevante Informationen und Ereignisse zusammenlaufen, protokolliert und in Echtzeit analysiert werden. Hier sollten auch Schwachstellen in der IT systematisch erfasst und in die Analyse mit einbezogen werden. Dabei sollte auch die Information vorliegen, welche Risiken hinsichtlich der Informationssicherheit bestehen, welche Sicherheitsmaßnahmen umzusetzen sind und wie der Umsetzungsstatus ist. Bei Feststellung von Sicherheitsvorfällen kann von dieser zentralen Stelle aus unmittelbar reagiert werden, Sofortmaßnahmen können eingeleitet werden und im Nachgang auf Basis des gesammelten Datenmaterials können forensische Analysen durchgeführt werden.