5G-Standardisierung: 5G New Radio


Zusammen mit einer grundsätzlichen System-Architektur wurde Ende 2018 auch ein Teil des 5G New Radio definiert, der Grundlage für alle frühen Implementierungen ist. 5G NR ist technisch anspruchsvoll und hoch spannend, denn alle Funktionen müssen ja schließlich und endlich über die Luftschnittstelle implementiert werden. Aufgrund der allgemeinen Technologieentwicklung ist zu erwarten, dass das 5G NR nie wirklich „fertig“ wird, sondern dass es wie bei LTE eine Reihe von Stufen geben wird, in denen es sich entwickelt. 5G NR definiert u.a. die drahtlose Schnittstelle zwischen einem Endgerät (welcher Art auch immer) und der 5G Infrastruktur. Die erste Version ist für den Anwendungsbereich eMBB im so genannten NSA-Modus (Non Stand Alone), was einfach bedeutet, dass 5G NR im Zusammenhang mit bestehenden LTE-Lösungen betrieben wird. Es stellt also nicht nur die Schnittstelle, sondern auch den standardisierten Migrationsweg fest.

iOS 12 – Stabilität, Performance und vieles mehr


Wie jedes Jahr stieg Anfang des Sommers Apples große Sause für Entwickler im und an Apples Ökokosmos. Die 29. zigste Worldwide Developers Conference (kurz WWDC) fand vom 4. bis zum 8. Juni im McEnery-Convention-Center in San José statt. Apple brachte eine sogar für Konsumenten langweilige Eröffnungsansprache (Keynote). Dabei hat iOS 12 enormes Potential, wie sich in dem restlichen Zeitraum auf der Konferenz herausgestellt hat.

Ich möchte im Folgenden einen Auszug zu den Neuigkeiten in iOS 12 geben. Dabei entspricht die Reihenfolge keiner Priorisierung. Vielmehr möchte ich auch Dinge erwähnen, die Sie nicht bereits mehrfach in der normalen Tagespresse gehört haben könnten.

Wird Office 365 bestehende UC-Installationen von Cisco und Unify verdrängen?


Auf den ersten Blick wirkt diese Frage deplatziert. Office 365 ist nun mal keine UC-Lösung. Aber wer einen Blick in die nächsten 12 bis 36 Monate wirft, der sieht, dass Microsoft die schnelle Verbreitung von Office 365 nutzen wird, um den gesamten UC-Markt zu verändern. Und dies ist nicht ein zufälliges Abfallprodukt, sondern eine sehr geplant wirkende Entwicklung.

Wie kann das sein?

WPA2 gehackt: ist WPA3 sicherer?


Zusammen mit einer grundsätzlichen System-Architektur wurde Ende 2018 auch ein Teil des 5G New Radio definiert, der Grundlage für alle frühen Implementierungen ist. 5G NR ist technisch anspruchsvoll und hoch spannend, denn alle Funktionen müssen ja schließlich und endlich über die Luftschnittstelle implementiert werden. Aufgrund der allgemeinen Technologieentwicklung ist zu erwarten, dass das 5G NR nie wirklich „fertig“ wird, sondern dass es wie bei LTE eine Reihe von Stufen geben wird, in denen es sich entwickelt. 5G NR definiert u.a. die drahtlose Schnittstelle zwischen einem Endgerät (welcher Art auch immer) und der 5G Infrastruktur. Die erste Version ist für den Anwendungsbereich eMBB im so genannten NSA-Modus (Non Stand Alone), was einfach bedeutet, dass 5G NR im Zusammenhang mit bestehenden LTE-Lösungen betrieben wird. Es stellt also nicht nur die Schnittstelle, sondern auch den standardisierten Migrationsweg fest.

Bluetooth im Gebäude der Zukunft – Konkurrenz zum WLAN?


Immer häufiger diskutieren wir Technologien für das Gebäude oder den Arbeitsplatz der Zukunft, für Industrie 4.0 etc. Dabei gehen viele der Anwendungen und Technologien über das althergebrachte, eigentliche IT-Netzwerk hinaus und erfordern neue Technologien und Denkweisen für neue Anwendungen.

Neue Prozessoren braucht das Land – Sicherheitsfeatures und -lücken in modernen Prozessor-Architekturen


Im Januar wurden mit „Spectre“ und „Meltdown“ die Grundfesten der Informationstechnologie und -sicherheit erschüttert. Auf einmal war die Annahme, dass der Prozessor sicher und vertrauenswürdig ist und man sich nur um die Software kümmern muss, infrage gestellt. Darauf folgten erste Patches und wieder neue Sicherheitslücken. Die Auswirkungen waren und sind noch nicht endgültig absehbar. Dabei sind auch neue Sicherheitsfunktionen moderner CPUs in den Hintergrund getreten, obwohl diese in vielen Bereichen sinnvoll eingesetzt werden können.

Warum Microsoft Teams und Cisco Spark Projekte scheitern


Die Einführung von UCC-Produkten ist keineswegs ein Selbstläufer. Dabei sind Cisco Spark (jetzt Webex Teams) und Microsoft Teams nur Stellvertreter für alle Produkte in diesem Bereich. Unify Circuit, Slack und andere sind davon nicht ausgenommen. Das Risiko eines Scheiterns von UCC-Projekten speziell im Sinne fehlender Akzeptanz seitens der Benutzer ist generell hoch. Dies liegt an folgenden typischen Ursachen:

  • Funktionale Fehlausrichtung
  • Mängel der Produkte
  • Schlechte Team- und Kanal-Strukturierung
  • Organisatorische Einführung scheitert

Fluch und Segen der Künstlichen Intelligenz für die Informationssicherheit


Ohne Zweifel: Wir befinden uns im Jahrhundert der Künstlichen Intelligenz (KI).

KI ist inzwischen an vielen Stellen fester Bestandteil unseres Alltags und zu einem Grundbestandteil von einer Vielzahl von Diensten und Anwendungen geworden. Beispiele sind sprachbasierte Assistenzsysteme wie Amazon Echo (bzw. Alexa), Gesichtserkennung zur Authentisierung z.B. mit Face ID am iPhone, Sprachübersetzungen z.B. mit dem Google Übersetzer und Chat Bots, die automatisiert Nutzeranfragen beantworten. Interaktionen der Form „Alexa, bin zuhause, mach Licht und die Klimaanlage an und bestell mir meine Lieblingspizza.“ wären vor einigen Jahren noch Science Fiction gewesen.

Sicherer Zugang zu Cloudanwendungen


Mit der rasanten Zunahme von Anwendungen aus der Cloud (Software as a Service) und der verbreiteten Nutzung mobiler Endgeräte, rückt ein altes Thema erneut in den Vordergrund: die Absicherung des Zugriffs auf Unternehmensdaten. Cloudanwendungen greifen per Design sowieso nur auf Daten in der Cloud zu und die Nutzung von mobilen Endgeräten setzt voraus, dass auf die Daten von der jeweiligen Anwendung aus zugegriffen werden kann – unabhängig davon, wo sich diese Daten befinden: On-premises oder in der Cloud.

Best Practice für die sichere Administration der IT


Je mächtiger die Berechtigungen eines Nutzers für den Zugriff auf IT-Systeme oder Anwendungen ist, desto wichtiger ist die Absicherung solcher Zugriffe. Dies gilt insbesondere für administrative Zugriffe auf IT-Komponenten und erfordert einen umfassen spezifischen Maßnahmenkatalog, der sich verschiedenster Techniken der Informationssicherheit von Sicherheitszonen, Firewall-Techniken über Authentisierung & Autorisierung bis hin zur Protokollierung und Verhaltensanalyse bedient.

Dieser Artikel beschreibt die Techniken, die sich dabei als Best Practice in verschiedensten IT-Infrastrukturen bewährt haben.

Power over Ethernet als generelle Stromversorgung: alles Wahnsinn oder was? Und wer bitte ist denn zuständig?


Das Smart Building klopft an und es fordert neue Konzepte zur Integration einer Vielzahl von Sensoren und Aktoren. Auf den ersten Blick wird man da vorwiegend an Funktechniken denken. Das macht auch sicher Sinn. Allerdings kommen Funktechniken nicht überall zum Einsatz. Immer wenn eine Garantie für die Übertragung gefordert wird, wird Funk außen vor bleiben müssen. Und außerdem: auch Funk und die entsprechende Sensorik brauchen Strom (überwiegend).

Vorsicht mit asymmetrischem Routing!


Frage: Was ist das Tolle am Spanning Tree Protocol (STP)? Antwort: Es gibt immer nur genau einen Weg von Quelle zu Ziel. Das schafft klare Verhältnisse. Aber Sie alle kennen den Nachteil dieses Konzepts: Die redundanten Verbindungen sind nur „Redundanz“ im Sinne des Dudens, also „eigentlich überflüssige, für die Information nicht notwendige Elemente“.

VDI aus der Cloud


Virtuelle Desktop-Umgebungen sind nun wirklich nichts Neues. Schon lange gibt es Terminal-Serverdienste für unterschiedliche Anforderungen: sei es die Remote-Administration des eigentlichen Servers oder das Streaming von einzelnen, zentral gehosteten Anwendungen.

Manch einer hält sie sogar in Zeiten von mobilen Apps und Webanwendungen wie Office 365 oder G-Suite für eine aussterbende Art. Andere wiederum sehen sie als wichtigen Baustein für eine vollständig „cloudifizierte“ IT mit dummen Clients der Marke Chrome OS und Co. „Cloud“ ist für diesen Artikel das Stichwort, denn in der Tat beobachten wir, dass immer mehr Anwendungen in die Cloud verlagert werden und es zudem Kunden gibt, die bei der Planung neuer Standorte, eigene Rechenzentren gar nicht mehr berücksichtigen. Das sind aber nur zwei Beispiele, warum es interessant sein kann, virtuelle Desktops nicht selbst zu hosten, sondern ihren Betrieb in die Cloud zu verlagern. Dabei gibt es nicht nur verschiedene Angebote der Cloud Provider, sondern auch Anforderungen wie ausreichend Bandbreite, die kundenseitig erfüllt werden müssen. Dieser Artikel zeigt exemplarisch auf, welche Stärken aber auch Schwächen eine VDI-Struktur in der Cloud mit sich bringt und welche Voraussetzungen vorhanden sein müssen.

ONL, ONIE und P4 – Drei Bausteine zum Aufbau moderner Layer 3 Switche


Was sich zunächst nach einer Amerikanischen Sportliga, einer ostasiatischen Gottheit und einem veralteten CPU Typ anhört, ist ein noch relativ junger Trend im Netzwerkumfeld.

Wer heute eine PC oder einen Server in Betrieb nimmt, der stellt sich zunächst einmal die Frage: welches Betriebssystem wähle ich aus? Diese Frage ist von verschiedenen Faktoren abhängig. Zum einen hängt die Auswahl an den genutzten Anwendungen, die im Nachgang installiert werden sollen, aber auch von persönlichen Vorlieben ab. So hat sich im privaten wie im betrieblichen Umfeld Microsoft Windows in all seinen Varianten als Betriebssystem für PC und Serversysteme etabliert. Das liegt natürlich ursächlich an der großen Auswahl von Anwendungen, die hierfür zur Verfügung stehen. Im Server Umfeld sehen wir parallel eine starke Verbreitung von Linux Distributionen, die ebenfalls ihren berechtigten Platz als Serverbetriebssystem einnehmen.

Strategien gegen die Cloud? Wie hoch sind die Erfolgsaussichten?


Als Cloud-Technologie in den Markt eingeführt wurde, gehörte ComConsult Research auch zu den Kritikern dieser Entwicklung. Wir haben immer den Mehrwert von SaaS gesehen und betont, aber der Nutzen von Infrastructure as a Service IaaS war in der Breite für uns nicht nachvollziehbar. 30% theoretische Ersparnis plus Mehrkosten für die Anbindung und den Betrieb können keine Motivation sein, die Unternehmens-IT komplett umzustellen. Da ist es besser, die lokalen Einspar-Potenziale zu heben und einige erfolgreiche Cloud-Technologien intern zu nutzen. Und für den Erfolg brauchen wir eine breite Akzeptanz und nicht einzelne Ausnahmefälle, die den Nutzen plausibel machen.

Enterprise IT im Sumpf des IoT


Es scheint kaum noch eine Gerätekategorie zu geben, die von der allgegenwärtigen „Smartifizierung“ nicht betroffen ist. Alles wird smart: Spielzeuge, Fernseher, Kühlschränke, Heizungen, Staubsauger, Kameras, Uhren, Glühbirnen, Lichtschalter, Türschlösser, Fahrzeuge usw. sind Bestandteil des Internet of Things (IoT), werden also über das Internet vernetzt und können z.B. über das eigene Smartphone per Cloud-Dienst abgefragt und gesteuert werden.

IT-Verkabelung, PoE und Beleuchtung, wie passt das zusammen?


Vernetzung „all over the World“ oder besser gesagt „all over the building“ ist das Motto, welches unter anderem auch in Zusammenhang mit der Kommunikationsverkabelung eines Gebäudes, insbesondere eines Neubaus von großer Bedeutung sein wird. Der Ruf danach, zusätzlich zu den typischen Büroräumen und Flächen weitere Netzwerk-Anschüsse – möglicherweise in hoher Anzahl – bereitzustellen wird immer lauter.

Building Information Modeling – Herausforderungen und Potenziale


„Die Digitalisierung ist eine Substanzrevolution von Wirtschaft und Gesellschaft. Sie verändert die Voraussetzungen für das Wachstum, den Wohlstand und die Arbeit von morgen – und revolutioniert in einem disruptiven Prozess Industrien und Dienstleistungen, Wertschöpfungsketten und Produktionsprozesse, Innovations- und Produktlebenszyklen.“

Die Zukunft des WLAN: verdrängen wir jetzt das Kabel?


Seit den ersten Versionen von IEEE 802.11 diskutieren wir die Frage, ob WLANs das Kabel für einen Desktop-Anschluss ablösen werden. Mit einer starken Zunahme mobiler Endgeräte und neuen Standards wie IEEE 802.11ax scheint die Botschaft nun endlich klar zu sein: das Ende der Tertiär-Verkabelung ist nahe. Wenn wir noch Kabel brauchen, dann für die Verkabelung der Access Points für unsere WLANs oder unsere Kameras.

Nicht jede Anwendung ist für WLAN geeignet


Die Aussage „das Netzwerk hat Schuld“ ist ein bekannter Trick, der immer dann einen Zeitgewinn verspricht, wenn Anwender sich beklagen und auf Anhieb niemand eine Lösung parat hat. Und gerade bei WLAN ist der Nachweis schwierig, dass alles einwandfrei funktioniert. So einen Fall durfte ich neulich wieder einmal untersuchen.