Planung der IT-Verkabelung in BIM, erste Erfahrungen


Alle Leser des Insiders, die mit der Planung von anwendungsneutralen Kommunikationsverkabelungen in Neubauten zu tun haben werden sich über kurz oder lang mit einer neuen „Planungsmethodik“ namens BIM auseinandersetzen müssen, insbesondere bei komplexen, großen Neubauten. Der Anteil an BIM-Planung liegt zwar nach allgemein veröffentlichten Zahlen heute in Deutschland bei unter 1%, aber das Land Nordrhein-Westfalen wird beispielsweise ab 2020 dieses BIM als Planungsmethode für staatliche Gebäude verpflichtend festlegen. Aus Sicht des Autors erfordert diese neue Planungsmethodik ein völliges Umdenken und betrifft nicht nur die klassischen „großen“ Gewerke wie z.B. Architektur, Raumplanung, Möblierung, Lüftung, Stromversorgung o.ä., sondern auch die Planung der IT-Infrastruktur, insbesondere die passive Infrastruktur.

Zugang zu externen Clouds


In einem atemberaubenden Tempo steigt die Intensität der Nutzung externer Clouds. Stellen Sie sich eine hypothetische Person vor, die bis vor zwei Jahren die IT in deutschen Unternehmen gut gekannt hat, zwei Jahre verreist war und jetzt wieder da ist. Diese Person würde die IT in vielen Unternehmen nicht wiedererkennen. Überwog bis vor zwei Jahren in Deutschland die Skepsis und Misstrauen, was die Nutzung externer Clouds betraf, wird sich unser imaginärer Wiederkehrer wie in einer Landschaft nach einem Dammbruch vorkommen. Alle Hemmung scheint verflogen. Hier und da kann man die Entwicklung nur noch als Flucht in die Cloud bezeichnen.

Die Zukunft ist Wireless, aber mit welcher Technologie? 5G kontra WiFi-6: wer gewinnt? Worauf sollten Unternehmen setzen?


Dies ist mein letztes Geleit. Und ich möchte es zum Anlass nehmen, ein Thema anzusprechen, das mir seit einiger Zeit schwer im Magen liegt und das mit Richtungsentscheidungen für fast alle unsere Kunden verbunden ist. Und da es mein letztes Geleit ist, möchte ich hier auch noch mehr Klartext sprechen als Sie es auch so schon von mir gewohnt sind. Diesen Ansatz will ich auch auf meiner letzten Veranstaltung, dem ComConsult Netzwerk Forum Ende März, so durchziehen. Sie sind herzlich eingeladen, die letzten Diskussionen meines Berufslebens dort mit mir und meinem Nachfolger Dr. Moayeri zu führen. Ich verspreche Ihnen, dass es sich lohnen wird.

Die neue Rolle des 2,4-GHz-Bandes


Neulich hatte ich die Gelegenheit, einen „Gebäude-Demonstrator“ zu besichtigen. Was wird dort demonstriert? Sie ahnen es bereits, es geht um die neuartigen Gebäude, in denen alles irgendwie automatisiert und vernetzt abläuft. Die Klimaanlage weiß, wann Sie den Besprechungsraum gebucht haben und heizt ihn schon einmal vor. Ihren Gästen weist ein illuminierter Teppichboden den Weg (kein Scherz, den gibt es wirklich; ich habe ihn mit eigenen Augen gesehen). Und natürlich wartet der Aufzug schon und fährt Ihren Gast ins richtige Geschoss. Sollte wider Erwarten niemand zur Besprechung erscheinen und Sie vergessen, die Besprechung in Ihrem Kalender abzusagen, merkt die Gebäudesteuerung das und schaltet die Heizung kurzerhand wieder aus. Schöne neue Welt!

Die Top-IT-Infrastruktur-Themen der nächsten Jahre: To-Do-Liste für Entscheider


Im jährlichen Rhythmus veröffentlichen die einschlägig bekannten Analysten ihre Zukunfts-Prognosen. Da ist dann u.a von Robotik, Machine Learning und autonomen Fahren die Rede. Sicher interessant zu lesen, aber nicht immer mit einer direkten Relevanz für anstehende IT-Entscheidungen.

Deshalb soll hier an anderer Ansatz gewählt werden, den wir auch auf unserem diesjährigen Netzwerk Forum diskutieren werden.

Das Ziel dieser Analyse ist die Angabe einer Liste von

  • Entscheidungen, die jetzt für die Zukunftstauglichkeit unserer IT-Infrastrukturen erforderlich sind

Diese Analyse stellt deshalb die Fragen:

  • Welche Entwicklungen der nächsten Jahre werden unsere IT-Infrastrukturen verändern?
  • Welche Anforderungen, die planerisch vor uns liegen, sehen wir im Moment?
  • Und welche Entscheidungen sollten deshalb jetzt getroffen werden?

Persistenter Speicher für Container – Microservices jetzt auch stateful


Container und ihr Einsatz in der Unternehmens-IT sind derzeit in aller Munde. Die Popularität dieser Technologie stieg sprunghaft an, seit die Firma Docker eine Plattform zum einfachen und intuitiven Ausführen, Verteilen und Entwickeln von Containern veröffentlichte. Darüber hinaus wird z.B. über das immens populäre Kubernetes-Projekt eine Lösung zur automatisierten Orchestrierung von großen Zahlen von Containern bereitgestellt. Auf dieser Basis halten Container vermehrt Einzug in die produktionskritischen Bereiche der Unternehmensrechenzentren.

Der ursprüngliche Gedanke bei der Entwicklung von Containern war, dass sie prinzipiell flüchtig sind. Bei Bedarf werden neue Instanzen gestartet, wenn sie nicht mehr benötigt werden verschwinden sie wieder zusammen mit möglichen Veränderungen in den Daten. Da vermehrt auch Applikationen „containerisiert“ werden, die Zugriff auf persistente Daten benötigen, ist dieser Ansatz nicht mehr ausreichend.

In diesem Artikel stelle ich die wichtigsten Technologien für die Bereitstellung von persistentem Speicher sowohl für einzelne Container als auch in Orchestrierungsplattformen vor.

Neue Herausforderungen für das Netzwerk durch Gebäudeautomation


Hinter vorgehaltener Hand hört man schon mal, dass man im Zeitalter der Clouds Netzwerker bald nicht mehr benötigen würde. Was immer man braucht, könne man auf einer Weboberfläche per Mausklick in der Cloud schnell zusammenstellen. Da fühlt man sich dann als eingefleischter Netzwerker wie ein Angestellter beim Braunkohletagebau nur ohne die Milliarden an Ausstiegshilfen.

Verfügbarkeit von Cloud-Diensten: Ein unterschätztes Problem


Das letzte Jahr ist für die Welt der Microsoft Cloud nicht gut zu Ende gegangen und das neue Jahr hat auch nicht gut begonnen. Microsoft meldet seit geraumer Zeit für verschiedenste Cloud-Dienste von Office 365 bis zu Azure immer wieder Verfügbarkeitsprobleme. Um ein paar Beispiele zu nennen: Mal funktioniert der Cloud-Speicher für mehrere Stunden nicht, Skype und E-Mail gehen nicht, die Anmeldung an allen möglichen Diensten klappt über einen längeren Zeitraum nicht und als GAU wurde jetzt kürzlich ein Datenverlust bei Azure SQL-Datenbanken gemeldet

IT-Infrastrukturen für das Gebäude der Zukunft


Unsere Welt verändert sich. Was sonst! Auch die Anforderungen an moderne IT-Infrastrukturen verändern sich. Was bisher gut und vernünftig war, ist morgen nicht mehr ausreichend. Dieser Beitrag beschreibt die Anforderungen an das IT-Netz eines modernen Gebäudes, mit dem Anspruch, auch in den nächsten Jahren noch für die aufkommenden Aufgaben gewappnet zu sein. Wer heute in der Planung eines neuen Gebäudes diese Anforderungen nicht berücksichtigt, wird in Zukunft mit Problemen in der Vermarktung des Gebäudes und mit Unzufriedenheit der Nutzer zu kämpfen haben. Nicht alles, was heute machbar ist, ist auch im ersten Schritt zu realisieren. Es muss aber darauf geachtet werden, dass Techniken ohne großen Aufwand nachgerüstet werden können. Die Basis für die neuen Techniken muss im Gebäude angelegt werden. Ansonsten wird man sich schneller als gedacht mit der Frage einer aufwändigen technischen Ertüchtigung einer Bestandsimmobilie befassen müssen.

Wenn man wissen will, wohin die Reise geht, ist es immer wichtig zu wissen, woher man kommt. Es wird deshalb im Folgenden erst die bisherige Entwicklung beschrieben und dann auf die relevanten Bereiche eingegangen, die die neuen Entwicklungen maßgeblich beeinflussen.

Anforderungen von Cloudanwendungen an Netzwerke – ein Beispiel


IT-Clouds bestehen nicht aus Luft und Wasser, sondern aus Servern und Netzen. Doch kann man sich als Anwender die Frage stellen, ob man nicht auf das entsprechende Wissen über diese Basis-Bausteine verzichten kann, da doch alles vom Cloud Provider gemanagt wird und somit Server-Administratoren und Netzwerker vom Planer bis zum Betreiber überflüssig werden. Und sicher: Kabelziehen und Karten oder Speichererweiterung in Servern einbauen braucht der Cloud Nutzer selbst nicht mehr. Ebenso wenig muss man sich um die physikalische Infrastruktur innerhalb eines Cloud-Rechenzentrums kümmern. Trotzdem wird das Wissen um Netzwerkfunktionen und IT-Infrastrukturen weiterhin benötigt.

Aus welchen Elementen Cloud-Netze bestehen und wie skalierbare Anwendungen in der Cloud realisiert werden können, wurde bereits in anderen Insider-Artikeln behandelt. In diesem werden diese Elemente nun in einem fiktiven Beispiel zusammengeführt. Dabei soll exemplarisch aufgezeigt werde, warum auf das Wissen um IP-Netze keinesfalls verzichtet werden kann.

Power over Ethernet: wofür, womit, durch wen – Grundsatzentscheidung dringend gefordert!


Power over Ethernet kombiniert Strom und Netzwerkanschluss. Je mehr Strom wir dabei transportieren können, desto weiter spannen sich die Anwendungsfelder. Und mit 100W lassen sich viele Technologien und Geräte betreiben. Dies reicht von der Beleuchtung über Medientechnik bis hin zu kompletten Arbeitsplatz-PCs. Und die Liste der möglichen Nutzungen wird täglich länger.

Lassen Sie uns aber gleich zum Elefanten im Raum kommen. Dies ist die Frage der Nutzbarkeit von Datenkabeln UND Stecksystemen zur Übertragung von Gleichstrom. Wie heiß werden die Kabel? Welche Konsequenzen haben Bündel? Produzieren Steckverbindungen Funken? Welche Längen sind möglich? Tatsache ist, dass alle diese Fragen leicht beantwortet werden können und bei Einhaltung der einschlägigen Verkabelungsstandards und darauf aufsetzender Empfehlungen auch Bündelsituationen keine große Herausforderung sind. Ja, man kann das falsche Kabel auswählen oder Fehler bei der Verlegung machen, aber dies sind nicht wirklich die herausragenden Probleme. Details zur Auslegung von PoE-Kabelsystemen werden wir auf unserem Netzwerk-Forum und unserem Forum zu IT- und TGA-Infrastrukturen im März besprechen.

Weiterlesen »

5G-Mobilfunk – selbstgebaut?!


„5G“ ist derzeit wieder in aller Munde. Das liegt vor allem daran, dass die Bundesnetzagentur demnächst zwei Mal 60 MHz bei 2 GHz und den Bereich 3,4 bis 3,7 GHz versteigern will. Bis zum 25. Januar können sich die interessierten Unternehmen dafür bewerben. Über die Auflagen ist viel diskutiert worden, insbesondere über die Verpflichtung, bis Ende 2022 mindestens 98% der Haushalte mit mindestens 100 Mbit/s über Mobilfunk versorgen zu müssen. Interessant dabei ist, dass jetzt nur so genannte „Kapazitätsfrequenzen“ versteigert werden, man aber für die Versorgung der ländlichen Gebiete „Flächenfrequenzen“ benötigt, also Frequenzen unter 1 GHz, die gute Reichweiten und Durchdringung von Gebäuden versprechen. Diese Frequenzen sind aber bereits an die Provider vergeben.

Künstliche Intelligenz erobert die IT


Künstliche Intelligenz (KI) ist inzwischen an vielen Stellen ein fester Bestandteil unseres Alltags und zu einem Grundbestandteil von einer Vielzahl von Diensten und Anwendungen geworden. Beispiele sind sprachbasierte Assistenzsysteme wie Amazon Echo (bzw. Alexa), Sprachübersetzungen z.B. mit dem Google Übersetzer und Chat Bots, die automatisiert Nutzeranfragen beantworten. Autonomes Fahren im Straßenverkehr ist ohne KI zur Erkennung der Umwelt undenkbar. Fehlentscheidungen einer KI könnten hier jedoch höchst gefährliche Konsequenzen haben.

KI ist daher ohne Zweifel in vielen Bereichen auch mit Risiken verbunden. Um diese Risiken einschätzen zu können, betrachten wir zunächst kurz die Techniken, die bei KI zum Einsatz kommen, und untersuchen dann Beispiele für aktuelle Anwendungsbereiche insbesondere in der Informationssicherheit genauer. Es wird sich dabei zwar zeigen, dass KI ausgesprochen erstaunliche Potentiale, jedoch auch höchst interessante Nebenwirkungen haben kann und neue Angriffsvektoren ermöglicht. Daher muss überlegt werden, welche Sicherheitsmaßnahmen hier erforderlich und nach dem aktuellen Stand der Entwicklung auch möglich sind.

Verteilte, parallele Dateisysteme – Definition, Geschichte und aktueller Stand von Hochleistungs-Dateisystemen


In den meisten Unternehmen haben Daten einen enormen Wert. Seien es Pläne für neue Produkte, die die Zukunftsfähigkeit des Unternehmens sicherstellen sollen oder Daten, die aufgrund rechtlicher Vorgaben verfügbar sein müssen. Diese Daten befinden sich im Allgemeinen auf einem zentralen Speicher, der ausfallsicher und ausreichend performant dimensioniert ist. In manchen Bereichen, z.B. Medienbearbeitung oder Big Data, kann die Skalierbarkeit eines zentralen Systems allerdings an seine Grenzen stoßen. Auch bei einem Zugriff vieler verschiedener Clients auf ein einzelnes Storage-System kann das Storage-Netzwerk einen Flaschenhals bilden. In diesem Fall bietet sich an, die Daten auf viele „kleinere“ Server zu verteilen, die dann ein großes Dateisystem bilden und zusammen die Anfragen von Clients beantworten und so eine bessere Auslastung des Netzwerks erreichen. Dies kann mit verteilten, parallelen Dateisystemen erreicht werden.

In diesem Artikel sollen die Geschichte dieser Technologie sowie die technischen Grundlagen erläutert werden. Dabei werden sowohl Vor- als auch Nachteile beschrieben und aktuelle Beispiele für deren Einsatz aufgeführt.

Das Netzwerk der Zukunft: warum es existiert und was anders als bisher ist


Unser ComConsult Netzwerk Forum 2019 stellt das Thema “Das Netzwerk der Zukunft” in den Vordergrund. Anders formuliert: die Frage wie sich der Bedarf entwickelt und was man von der Planung bis zum Betrieb machen muss, um diesen Bedarf abzudecken.

Wie immer bei unseren Foren erarbeiten im Moment unsere Research-Teams das Basis-Material für das Forum. Projekt-Erfahrungen des laufenden Jahres werden ausgewertet, wir sprechen mit den Produktverantwortlichen der Hersteller und wir entwickeln unsere eigene Analyse des zukünftigen Bedarfs. Schon jetzt ist klar: dies wird ein großes und wichtiges Forum, vielleicht das wichtigste der letzten 10 Jahre.

Security by Design: Leichter gesagt als getan


Die Arbeit in der operativen Informationssicherheit ist neben der nachhaltigen Umsetzung von Sicherheitsmaßnahmen wie Virenschutz, Firewalling und Co. geprägt vom Management von Schwachstellen und Sicherheitsvorfällen, die oft ihre Ursache in Fehlern in einer Software oder (Spectre lässt grüßen) auch auf Hardware-Ebene haben. Wenn eine Schwachstelle nicht schnell genug gepatcht werden kann, bleibt der Informationssicherheit oft nur eine Risikominderung durch manchmal sehr aufwändige alternative Maßnahmen, wie z.B. die Trennung der Systeme in eine eigene Sicherheitszone hinter einer Firewall in Verbindung mit der Analyse des Kommunikationsverkehrs hinsichtlich Anomalien über Intrusion Prevention auf der Firewall.

Ein „Cloud Starter-Kit“ oder was ist beim Einstieg in die Cloud zu beachten?


Cloud Computing ist zweifellos die wichtigste technologische Entwicklung unserer Zeit mit tiefgreifenden Auswirkungen für alle Unternehmen. Wesentliche Formen von Cloud Computing – insbesondere SaaS (Software as a Service) – zeigen alle Merkmale sowohl exponentieller als auch disruptiver Technologien. Oder anders formuliert: Niemand kann sich entziehen und in weiten Bereichen wird die IT, wie wir sie kennen, komplett umgekrempelt werden.

Über die Gründe hierfür, sowie über die Gefahren und Auswirkungen des Gangs in die Cloud wurden in diesem Medium und auch auf unzähliger unserer Veranstaltungen schon oft geschrieben bzw. gesprochen. Das Ziel des vorliegenden Artikels ist es daher nicht, diese Diskussionen erneut aufzuwärmen, sondern Kriterien und Maßnahmen aufzuzeigen, die Unternehmen den Einstieg in die Welt des Cloud Computings erleichtern und einen allzu blauäugigen Umstieg auf Cloud-Anwendungen verhindern sollen – ein Einsteiger-Kit für die Cloud so zu sagen.

Beginnen wir ganz grundlegend: Was bedeutet Cloud Computing? Wie unterscheidet sich Software as a Service von klassischen Anwendungen?

Non Volatile Memory express over Fabric – Der Turbo für das SAN


Auch in Zeiten von Hyper-Converged-Infrastructure, der zunehmenden Verbreitung von verteilten Dateisystemen und dem wachsenden Einsatz von Cloud Storage bleibt zentraler SAN-Speicher in vielen Unternehmen gesetzt. Insbesondere für „mission critical“ Applikationen mit hohen Performance- und Verfügbarkeitsanforderungen ist weiterhin blockbasierter Speicher die erste Wahl. Über lange Zeit basierte die Speicherkommunikation im blockbasierten SAN, ebenso wie innerhalb von Servern, letztlich auf der Übertragung von SCSI-Befehlen. Die Einführung der NVM Express (NVMe) Schnittstelle hat hier einen deutlichen Leistungssprung ermöglicht, der nun auch auf das Speichernetzwerk übertragen wird. Man könnte sagen, NVMe over Fabric ist die erste Technologie seit Fibre Channel (vor mehr als 20 Jahren), welche von Grund auf für vernetzten Speicher entwickelt wurde.

Sowohl in Enterprise-Servern als auch Consumer-Produkten vollzieht sich bei der Anbindung von SSD-Festplatten aktuell der Wandel von traditionellen Schnittstellen wie SAS, Fibre Channel oder SATA hin zu NVMe.

Die Rolle des Smartphones im Unternehmen der Zukunft


Das Smartphone und seine Nutzungsformen sollten neu überdacht werden. Die These hier zur Einleitung ist:

  • Unternehmen sollten erwägen, das Smartphone zu einem Standard-Endgerät für jeden Mitarbeiter zu machen
  • Das konkrete Gerät sollte strikt am Unternehmensbedarf orientiert werden und für die Nutzung der im Unternehmen eingesetzten Apps optimiert sein. Dies betrifft zum Beispiel die Nutzung des Smartphone als Kollaborations-Endpunkt, seinen Einsatz bei Multifaktor-Authentifizierung oder zur Nutzung von Gebäude-/Büro-bezogenen Apps für den Zugang, die Lichtsteuerung, die Heizungs- und Lüftungssteuerung etc.
  • Die Nutzung des Smartphones sollte in ein generelles Mobility-Konzept mit einem starken Security-Anteil integriert sein, wenn dies nicht sowieso schon der Fall ist

TCP im IoT – manchmal anders als gewohnt!


Das Internet der Dinge (IoT) hält so manche Überraschung bereit. Zum einen, was die Art und Fähigkeiten der Produkte angeht – insbesondere im häuslichen Umfeld. Zum anderen, was die Datenübertragung angeht. Ich war jedenfalls neulich ziemlich erstaunt und habe dazugelernt.

Mein Kunde auch. Er entwickelt eine Smartphone-Anwendung („App“) und die dazu passende Server-Komponente im Internet („Cloud“). Beides dient der Steuerung eines IoT-Geräts, nennen wir es „Getränkeautomat“. Möchte der häusliche Anwender sich ein Getränk zubereiten, kann er sich dabei von der App unterstützen lassen, wenn er möchte. Zu diesem Zweck verfügt der Getränkeautomat über ein WLAN-Modul, über das er eine TCP-Verbindung zum Cloud-Server aufbaut. Die Smartphone App macht das genauso.