IT-Infrastrukturen für das Gebäude der Zukunft


Unsere Welt verändert sich. Was sonst! Auch die Anforderungen an moderne IT-Infrastrukturen verändern sich. Was bisher gut und vernünftig war, ist morgen nicht mehr ausreichend. Dieser Beitrag beschreibt die Anforderungen an das IT-Netz eines modernen Gebäudes, mit dem Anspruch, auch in den nächsten Jahren noch für die aufkommenden Aufgaben gewappnet zu sein. Wer heute in der Planung eines neuen Gebäudes diese Anforderungen nicht berücksichtigt, wird in Zukunft mit Problemen in der Vermarktung des Gebäudes und mit Unzufriedenheit der Nutzer zu kämpfen haben. Nicht alles, was heute machbar ist, ist auch im ersten Schritt zu realisieren. Es muss aber darauf geachtet werden, dass Techniken ohne großen Aufwand nachgerüstet werden können. Die Basis für die neuen Techniken muss im Gebäude angelegt werden. Ansonsten wird man sich schneller als gedacht mit der Frage einer aufwändigen technischen Ertüchtigung einer Bestandsimmobilie befassen müssen.

Wenn man wissen will, wohin die Reise geht, ist es immer wichtig zu wissen, woher man kommt. Es wird deshalb im Folgenden erst die bisherige Entwicklung beschrieben und dann auf die relevanten Bereiche eingegangen, die die neuen Entwicklungen maßgeblich beeinflussen.

Anforderungen von Cloudanwendungen an Netzwerke – ein Beispiel


IT-Clouds bestehen nicht aus Luft und Wasser, sondern aus Servern und Netzen. Doch kann man sich als Anwender die Frage stellen, ob man nicht auf das entsprechende Wissen über diese Basis-Bausteine verzichten kann, da doch alles vom Cloud Provider gemanagt wird und somit Server-Administratoren und Netzwerker vom Planer bis zum Betreiber überflüssig werden. Und sicher: Kabelziehen und Karten oder Speichererweiterung in Servern einbauen braucht der Cloud Nutzer selbst nicht mehr. Ebenso wenig muss man sich um die physikalische Infrastruktur innerhalb eines Cloud-Rechenzentrums kümmern. Trotzdem wird das Wissen um Netzwerkfunktionen und IT-Infrastrukturen weiterhin benötigt.

Aus welchen Elementen Cloud-Netze bestehen und wie skalierbare Anwendungen in der Cloud realisiert werden können, wurde bereits in anderen Insider-Artikeln behandelt. In diesem werden diese Elemente nun in einem fiktiven Beispiel zusammengeführt. Dabei soll exemplarisch aufgezeigt werde, warum auf das Wissen um IP-Netze keinesfalls verzichtet werden kann.

Power over Ethernet: wofür, womit, durch wen – Grundsatzentscheidung dringend gefordert!


Power over Ethernet kombiniert Strom und Netzwerkanschluss. Je mehr Strom wir dabei transportieren können, desto weiter spannen sich die Anwendungsfelder. Und mit 100W lassen sich viele Technologien und Geräte betreiben. Dies reicht von der Beleuchtung über Medientechnik bis hin zu kompletten Arbeitsplatz-PCs. Und die Liste der möglichen Nutzungen wird täglich länger.

Lassen Sie uns aber gleich zum Elefanten im Raum kommen. Dies ist die Frage der Nutzbarkeit von Datenkabeln UND Stecksystemen zur Übertragung von Gleichstrom. Wie heiß werden die Kabel? Welche Konsequenzen haben Bündel? Produzieren Steckverbindungen Funken? Welche Längen sind möglich? Tatsache ist, dass alle diese Fragen leicht beantwortet werden können und bei Einhaltung der einschlägigen Verkabelungsstandards und darauf aufsetzender Empfehlungen auch Bündelsituationen keine große Herausforderung sind. Ja, man kann das falsche Kabel auswählen oder Fehler bei der Verlegung machen, aber dies sind nicht wirklich die herausragenden Probleme. Details zur Auslegung von PoE-Kabelsystemen werden wir auf unserem Netzwerk-Forum und unserem Forum zu IT- und TGA-Infrastrukturen im März besprechen.

Weiterlesen »

5G-Mobilfunk – selbstgebaut?!


„5G“ ist derzeit wieder in aller Munde. Das liegt vor allem daran, dass die Bundesnetzagentur demnächst zwei Mal 60 MHz bei 2 GHz und den Bereich 3,4 bis 3,7 GHz versteigern will. Bis zum 25. Januar können sich die interessierten Unternehmen dafür bewerben. Über die Auflagen ist viel diskutiert worden, insbesondere über die Verpflichtung, bis Ende 2022 mindestens 98% der Haushalte mit mindestens 100 Mbit/s über Mobilfunk versorgen zu müssen. Interessant dabei ist, dass jetzt nur so genannte „Kapazitätsfrequenzen“ versteigert werden, man aber für die Versorgung der ländlichen Gebiete „Flächenfrequenzen“ benötigt, also Frequenzen unter 1 GHz, die gute Reichweiten und Durchdringung von Gebäuden versprechen. Diese Frequenzen sind aber bereits an die Provider vergeben.

Künstliche Intelligenz erobert die IT


Künstliche Intelligenz (KI) ist inzwischen an vielen Stellen ein fester Bestandteil unseres Alltags und zu einem Grundbestandteil von einer Vielzahl von Diensten und Anwendungen geworden. Beispiele sind sprachbasierte Assistenzsysteme wie Amazon Echo (bzw. Alexa), Sprachübersetzungen z.B. mit dem Google Übersetzer und Chat Bots, die automatisiert Nutzeranfragen beantworten. Autonomes Fahren im Straßenverkehr ist ohne KI zur Erkennung der Umwelt undenkbar. Fehlentscheidungen einer KI könnten hier jedoch höchst gefährliche Konsequenzen haben.

KI ist daher ohne Zweifel in vielen Bereichen auch mit Risiken verbunden. Um diese Risiken einschätzen zu können, betrachten wir zunächst kurz die Techniken, die bei KI zum Einsatz kommen, und untersuchen dann Beispiele für aktuelle Anwendungsbereiche insbesondere in der Informationssicherheit genauer. Es wird sich dabei zwar zeigen, dass KI ausgesprochen erstaunliche Potentiale, jedoch auch höchst interessante Nebenwirkungen haben kann und neue Angriffsvektoren ermöglicht. Daher muss überlegt werden, welche Sicherheitsmaßnahmen hier erforderlich und nach dem aktuellen Stand der Entwicklung auch möglich sind.

Verteilte, parallele Dateisysteme – Definition, Geschichte und aktueller Stand von Hochleistungs-Dateisystemen


In den meisten Unternehmen haben Daten einen enormen Wert. Seien es Pläne für neue Produkte, die die Zukunftsfähigkeit des Unternehmens sicherstellen sollen oder Daten, die aufgrund rechtlicher Vorgaben verfügbar sein müssen. Diese Daten befinden sich im Allgemeinen auf einem zentralen Speicher, der ausfallsicher und ausreichend performant dimensioniert ist. In manchen Bereichen, z.B. Medienbearbeitung oder Big Data, kann die Skalierbarkeit eines zentralen Systems allerdings an seine Grenzen stoßen. Auch bei einem Zugriff vieler verschiedener Clients auf ein einzelnes Storage-System kann das Storage-Netzwerk einen Flaschenhals bilden. In diesem Fall bietet sich an, die Daten auf viele „kleinere“ Server zu verteilen, die dann ein großes Dateisystem bilden und zusammen die Anfragen von Clients beantworten und so eine bessere Auslastung des Netzwerks erreichen. Dies kann mit verteilten, parallelen Dateisystemen erreicht werden.

In diesem Artikel sollen die Geschichte dieser Technologie sowie die technischen Grundlagen erläutert werden. Dabei werden sowohl Vor- als auch Nachteile beschrieben und aktuelle Beispiele für deren Einsatz aufgeführt.

Das Netzwerk der Zukunft: warum es existiert und was anders als bisher ist


Unser ComConsult Netzwerk Forum 2019 stellt das Thema “Das Netzwerk der Zukunft” in den Vordergrund. Anders formuliert: die Frage wie sich der Bedarf entwickelt und was man von der Planung bis zum Betrieb machen muss, um diesen Bedarf abzudecken.

Wie immer bei unseren Foren erarbeiten im Moment unsere Research-Teams das Basis-Material für das Forum. Projekt-Erfahrungen des laufenden Jahres werden ausgewertet, wir sprechen mit den Produktverantwortlichen der Hersteller und wir entwickeln unsere eigene Analyse des zukünftigen Bedarfs. Schon jetzt ist klar: dies wird ein großes und wichtiges Forum, vielleicht das wichtigste der letzten 10 Jahre.

Security by Design: Leichter gesagt als getan


Die Arbeit in der operativen Informationssicherheit ist neben der nachhaltigen Umsetzung von Sicherheitsmaßnahmen wie Virenschutz, Firewalling und Co. geprägt vom Management von Schwachstellen und Sicherheitsvorfällen, die oft ihre Ursache in Fehlern in einer Software oder (Spectre lässt grüßen) auch auf Hardware-Ebene haben. Wenn eine Schwachstelle nicht schnell genug gepatcht werden kann, bleibt der Informationssicherheit oft nur eine Risikominderung durch manchmal sehr aufwändige alternative Maßnahmen, wie z.B. die Trennung der Systeme in eine eigene Sicherheitszone hinter einer Firewall in Verbindung mit der Analyse des Kommunikationsverkehrs hinsichtlich Anomalien über Intrusion Prevention auf der Firewall.

Ein „Cloud Starter-Kit“ oder was ist beim Einstieg in die Cloud zu beachten?


Cloud Computing ist zweifellos die wichtigste technologische Entwicklung unserer Zeit mit tiefgreifenden Auswirkungen für alle Unternehmen. Wesentliche Formen von Cloud Computing – insbesondere SaaS (Software as a Service) – zeigen alle Merkmale sowohl exponentieller als auch disruptiver Technologien. Oder anders formuliert: Niemand kann sich entziehen und in weiten Bereichen wird die IT, wie wir sie kennen, komplett umgekrempelt werden.

Über die Gründe hierfür, sowie über die Gefahren und Auswirkungen des Gangs in die Cloud wurden in diesem Medium und auch auf unzähliger unserer Veranstaltungen schon oft geschrieben bzw. gesprochen. Das Ziel des vorliegenden Artikels ist es daher nicht, diese Diskussionen erneut aufzuwärmen, sondern Kriterien und Maßnahmen aufzuzeigen, die Unternehmen den Einstieg in die Welt des Cloud Computings erleichtern und einen allzu blauäugigen Umstieg auf Cloud-Anwendungen verhindern sollen – ein Einsteiger-Kit für die Cloud so zu sagen.

Beginnen wir ganz grundlegend: Was bedeutet Cloud Computing? Wie unterscheidet sich Software as a Service von klassischen Anwendungen?

Non Volatile Memory express over Fabric – Der Turbo für das SAN


Auch in Zeiten von Hyper-Converged-Infrastructure, der zunehmenden Verbreitung von verteilten Dateisystemen und dem wachsenden Einsatz von Cloud Storage bleibt zentraler SAN-Speicher in vielen Unternehmen gesetzt. Insbesondere für „mission critical“ Applikationen mit hohen Performance- und Verfügbarkeitsanforderungen ist weiterhin blockbasierter Speicher die erste Wahl. Über lange Zeit basierte die Speicherkommunikation im blockbasierten SAN, ebenso wie innerhalb von Servern, letztlich auf der Übertragung von SCSI-Befehlen. Die Einführung der NVM Express (NVMe) Schnittstelle hat hier einen deutlichen Leistungssprung ermöglicht, der nun auch auf das Speichernetzwerk übertragen wird. Man könnte sagen, NVMe over Fabric ist die erste Technologie seit Fibre Channel (vor mehr als 20 Jahren), welche von Grund auf für vernetzten Speicher entwickelt wurde.

Sowohl in Enterprise-Servern als auch Consumer-Produkten vollzieht sich bei der Anbindung von SSD-Festplatten aktuell der Wandel von traditionellen Schnittstellen wie SAS, Fibre Channel oder SATA hin zu NVMe.

Die Rolle des Smartphones im Unternehmen der Zukunft


Das Smartphone und seine Nutzungsformen sollten neu überdacht werden. Die These hier zur Einleitung ist:

  • Unternehmen sollten erwägen, das Smartphone zu einem Standard-Endgerät für jeden Mitarbeiter zu machen
  • Das konkrete Gerät sollte strikt am Unternehmensbedarf orientiert werden und für die Nutzung der im Unternehmen eingesetzten Apps optimiert sein. Dies betrifft zum Beispiel die Nutzung des Smartphone als Kollaborations-Endpunkt, seinen Einsatz bei Multifaktor-Authentifizierung oder zur Nutzung von Gebäude-/Büro-bezogenen Apps für den Zugang, die Lichtsteuerung, die Heizungs- und Lüftungssteuerung etc.
  • Die Nutzung des Smartphones sollte in ein generelles Mobility-Konzept mit einem starken Security-Anteil integriert sein, wenn dies nicht sowieso schon der Fall ist

TCP im IoT – manchmal anders als gewohnt!


Das Internet der Dinge (IoT) hält so manche Überraschung bereit. Zum einen, was die Art und Fähigkeiten der Produkte angeht – insbesondere im häuslichen Umfeld. Zum anderen, was die Datenübertragung angeht. Ich war jedenfalls neulich ziemlich erstaunt und habe dazugelernt.

Mein Kunde auch. Er entwickelt eine Smartphone-Anwendung („App“) und die dazu passende Server-Komponente im Internet („Cloud“). Beides dient der Steuerung eines IoT-Geräts, nennen wir es „Getränkeautomat“. Möchte der häusliche Anwender sich ein Getränk zubereiten, kann er sich dabei von der App unterstützen lassen, wenn er möchte. Zu diesem Zweck verfügt der Getränkeautomat über ein WLAN-Modul, über das er eine TCP-Verbindung zum Cloud-Server aufbaut. Die Smartphone App macht das genauso.

Georedundante Rechenzentren: Warum klare Begriffsdefinitionen wichtig sind


Seit dem Erscheinen meines letzten Artikels zu georedundanten Rechenzentren im Netzwerk Insider vom August 2016 sind über zwei Jahre vergangen. In der Zwischenzeit sind wir bei ComConsult um Erfahrungen in einigen Goeoredundanz-Projekten reicher. Dieser Artikel soll auf der Basis dieser Erfahrungen vermitteln, warum in Projekten zur Realisierung der RZ-Geo-redundanz klare Begriffsdefinitionen besonders wichtig sind.

Das mag banal klingen. Jedoch haben wir immer wieder festgestellt, dass ohne eindeutige Definition von zentralen Begriffen im Zusammenhang mit georedundanten Rechenzentren Erwartungshaltungen bei der Realisierung der Projektziele divergieren können. Es kommt leider oft vor, dass es in den Köpfen unterschiedliche Verständnisse dieser zentralen Begriffe existieren.

Im Folgenden werden Definitionen für einige zentrale Begriffe vorgeschlagen. Es kommt weniger auf die 1:1-Übernahme der hier vorgeschlagenen Termini als vielmehr darauf an, dass die damit bezeichneten Sachverhalte und Mechanismen unterschieden und eindeutig bezeichnet werden.

Kollaboration am Arbeitsplatz oder warum Team Kollaboration die nächste große Welle nach UCC ist


Viele von Ihnen, die heute in den Unternehmen, Behörden und öffentlichen Einrichtungen mit dem Thema Kommunikation am Arbeitsplatz beschäftigt sind, stehen vor dem Problem, dass die Anzahl an neuen Lösungen und Technologien in immer höheren Taktzahlen eintreffen.

Haben wir bis vor wenigen Jahren unseren Focus rein auf Telefonie Dienste und Call Center Anwendungen richten müssen, so haben sich in den letzten vier bis fünf Jahren eine Vielzahl weiterer Kommunikationskanäle dazu gesellt oder drohen wegzubrechen.

Mobilität und die Cloud verändern die Videokonferenz, erhebliche Veränderungen im Markt sind zu erwarten


Die Auswahl einer Videokonferenzlösung war in der Vergangenheit eine überschaubare Aufgabe. Angesichts der Kosten nicht immer trivial, aber in Summe mit einer Komplexität versehen, die sich gut beherrschen ließ.
Dies hat sich grundlegend gewandelt. Die traditionelle Videokonferenz wird im Moment abgelöst durch ein neues Verständnis von Meeting und Kommunikation. Damit eng verknüpft sind deutlich erweiterte und komplexere Anforderungs-Kriterien. Die Preismodelle sehen zwar total anders aus als in der Vergangenheit, trotzdem sind die Gesamtkosten durch eine erhebliche Erweiterung der Teilnehmerkreise gestiegen.

Ohne Security Operation Center keine effektive und effiziente Angriffsabwehr


Ein Kernelement der operativen Informationssicherheit ist das effiziente und effektive Management von Schwachstellen und Sicherheitsvorfällen.

Wir benötigen hierzu eine zentrale Stelle an der sicherheitsrelevante Informationen und Ereignisse zusammenlaufen, protokolliert und in Echtzeit analysiert werden. Hier sollten auch Schwachstellen in der IT systematisch erfasst und in die Analyse mit einbezogen werden. Dabei sollte auch die Information vorliegen, welche Risiken hinsichtlich der Informationssicherheit bestehen, welche Sicherheitsmaßnahmen umzusetzen sind und wie der Umsetzungsstatus ist. Bei Feststellung von Sicherheitsvorfällen kann von dieser zentralen Stelle aus unmittelbar reagiert werden, Sofortmaßnahmen können eingeleitet werden und im Nachgang auf Basis des gesammelten Datenmaterials können forensische Analysen durchgeführt werden.

Eine tragfähige Zukunft für UC gestalten: UC-On-Premise, UCaaS und UCC in der Analyse


Diese Thematik ist einer der Schwerpunkte unseres UC-Forums im November. Wie immer bereiten wir exklusive Analysen für die Teilnehmer des Forums vor. Dieser Artikel greift einen Aspekt dieser Analysen auf. Wir stellen die Ergebnisse unserer Analysen auf dem UC-Forum vor uns diskutieren dies mit den Teilnehmern und den anwesenden Herstellern.

Betrachtet man die Investitionen der meisten Hersteller, dann ist die Aussage klar: das Geld geht nach UCaaS und UCC. UC On-Premise stagniert in seiner Funktionalität (ist das wirklich so? Dies wird später im Artikel diskutiert). Gleichzeitig wird man bei der Analyse des Marktes und der Projekte der letzten Monate mit interessanten Thesen konfrontiert:

  • UC On-Premise vor dem aus!
  • UCaaS funktional zu schwach!
  • UCC und UC wachsen zusammen ist UCC ist das neue UC!

Funktechniken für das “Internet der Dinge”


Über Wireless LAN haben Sie an dieser Stelle schon oft gelesen. Auch über Mobilfunk, insbesondere dessen 5. Generation (5G). Wären diese Funktechniken nicht auch geeignet für die „Dinge“ im Internet of Things (IoT)? Die Antwort ist „nein“, aus verschiedenen Gründen. Daher lohnt es sich einen Blick auf die Funktechniken zu werfen, die sich neben WLAN und Mobilfunk etabliert haben. Und das lohnt sich selbst dann, wenn Sie nicht vorhaben, in nächster Zeit Anwendungen auf Basis des IoT auszurollen. Denn möglicherweise beeinflusst dieser zusätzliche Funk Ihre etablierten Funknetze, insbesondere also das WLAN. Aber zuvor erkläre ich, warum man andere Funktechniken braucht. Und dann werfen wir natürlich einen etwas genaueren Blick auf diese Techniken.

Typische Fehleinschätzungen von Cloud-Diensten und die daraus entstehenden Probleme


Wenn es in den letzten Monaten eine durchgängige Diskussion in Projekten und Veranstaltungen gab, dann war es die Fehleinschätzung von dem, was die Cloud ist, was sie leistet und was sie kostet. Der begleitende Leitartikel in dieser Ausgabe greift das auch auf, aber trotzdem hier noch einmal die Erfahrungswerte, die alle Unternehmensgrößen betreffen, von klein bis extrem groß. Und das Grundmuster der entstehenden Probleme ist immer ähnlich:

  • Erhebliche Performance- und Stabilitätsprobleme
  • Kein geregelter Betrieb
  • Keine Mittel für ein geregeltes Wachstum einer skalierbaren Infrastruktur

WPA2 schon wieder gehackt?


Vor etwa einem Monat fiel mir schon wieder eine Meldung zur WLAN-Sicherheit ins Auge: „Direkter Angriff auf WLAN-Router“ lautete die Überschrift des kurzen Artikels [1]. Oh, das klingt gefährlicher als bei der KRACK-Verwundbarkeit. Sie erinnern sich (Netzwerk-Insider 11/2017), hier konnte ein „WLAN Man-in-the-Middle“ Pakete des 4-way Handshake abfangen und modifizieren. Bei WLAN-Endgeräten mit der genannten Verwundbarkeit wurde dadurch ein bekannter Schlüssel (Pairwise Master Key, PMK) installiert, so dass sich anschließend der Datenverkehr mitlesen lies.