Data Analytics im Rechenzentrum

Kommentieren Drucken

Anforderungen an das Rechenzentrum der Zukunft
Die Komplexität der modernen Rechenzentren nimmt immer mehr zu. Das ist der Tatsache geschuldet, dass heutige Geschäftsanforderungen immer schneller und umfassender durch IT Prozesse gestützt werden. Diese Komplexität wird zusätzlich – durch die steigenden Anforderungen an die Sicherheitsmaßnahmen – erhöht. Ein weiterer Aspekt ist die Verteilung der IT Systeme, der sogenannte „Cloud based“ Ansatz. Dadurch lassen sich zwar Kosten, Flexibilität und Agilität vereinen, aber dadurch werden weitere Sicherheitsfragen aufgeworfen. Dieser Komplexität wird heute durch Architektur, Automatisierung und entsprechendes Aufteilen in weniger komplexe Einheiten auf der einen Seite begegnet, auf der anderen Seite werden Ansätze verfolgt, die Kommunikation durch ein „Whitelisting“ Modell zu begrenzen.

In einer Whitelisting Umgebung werden explizit nur die Kommunikationsparameter freigegeben, die erwünscht sind, jede weitere Kommunikation wird unterbunden. Beim klassischen Blacklisting werden Kommunikationsparameter, die nicht erwünscht sind, geblockt, alles andere danach aber freigegeben. Daraus ergibt sich, dass ein Whitelisting Modell das prinzipiell sicherere, ein Blacklisting Modell aber einfacher zu handhaben ist.

Das Hauptproblem, das sich nun für IT Administratoren ergibt, ist die mangelnde Sichtbarkeit auf die Applikationskommunikation (IP Verkehr) und die daraus resultierenden Filtermechanismen, die in der Infrastruktur umgesetzt werden müssen.

Diese fehlenden Informationen werden aber dringend für folgende Maßnahmen gebraucht:

  • Migration von Applikationen aus klassischen Infrastrukturen („Blacklisting“) in moderne, SDN basierte Infrastrukturen („Whitelisting“).
  • Bereitstellen von Infrastrukturen im Katastrophenfall, Failover Szenarien.
  • Erstellen von durchgängigen Sicherheitsrichtlinien.
  • Überwachen der Applikationen auf Konformität der entsprechenden Sicherheitsrichtlinien und das Aufdecken von Abweichungen.

Cisco Tetration Analytics Solution
Die Cisco Tetration Analytics™ Plattform liefert diese fehlenden Informationen durch die Auswertung der real existierenden IP basierten Kommunikation im Rechenzentrum. Dabei werden maschinelles Lernen, Verhaltensanalysen und algorithmische Ansätze angewendet, um die Daten in nahezu Echtzeit zu analysieren. Mit diesen Daten werden automatisiert Applikationsgruppen und entsprechende Sicherheitsregeln erzeugt, die für den Betrieb unerlässlich werden. Unter der Verwendung von Hardware und Software Sensoren werden umfassende Daten zum Beispiel über Paket Varianzen, Jitter und Delay in Bezug auf den entsprechenden Flow zusammengefasst, analysiert, archiviert und für weitere Regelwerkabgleiche bereitgestellt. Das gilt sowohl für bestehende Applikationslandschaften, basierend auf herkömmlichen Switch Architekturen, als auch für neue SDN Architekturen wie Cisco’s Application Centric Infrastructure, ACI, basierend auf den neuesten Nexus 9000 Systemen. Durch die hochskalierbare Architektur von Tetration Analytics ist es möglich, Millionen von Informationen pro Sekunde zu verarbeiten und zu archivieren. Dabei werden die aktuellen Switch Interface Bandbreiten wie 1GB, 10GB oder 25GB im Access Bereich als auch die Uplink Geschwindigkeiten mit 40GB oder 100GB in Hardware unterstützt.

Die Lösung funktioniert wie eine Zeitmaschine im Rechenzentrum der Zukunft. Vorgänge können „zurück gespult“ werden, um entsprechende Flows besser analysieren zu können. Diese Daten können auch dazu herangezogen werden, um Sicherheitsrichtlinien gegen den aktuellen IP Fluss oder auch gegen den vergangener Zeitperioden zu überprüfen.

Dadurch kann sichergestellt werden, dass neue Sicherheitsrichtlinien nicht produktive Kommunikationen beeinflussen oder schlimmstenfalls unterbrechen.

Cisco Tetration Analytics basiert auf Big Data Technologien und ist in der Lage, die Vielzahl an Informationen, die von den Sensoren (Hardware oder Software Sensoren) und den weiteren Datenquellen (Whois, DNS, Loadbalancer, IP Ranges) geliefert werden, in nahezu Echtzeit zu verarbeiten. Dabei ist die Plattform dafür ausgelegt, langfristig die Daten zu archivieren. Je nach Auslastung und Verwendung sind 12 – 18 Monate archivierbar. Des Weiteren ist die Plattform auf Skalierung ausgelegt. Um auch bei Milliarden von Metadaten die Auswertung in Bruchteilen von Sekunden zu ermöglichen. Die Tetration Analytics Plattform wird als Appliance geliefert, d.h. Sie bekommen eine Ready to Use Appliance ohne den Bedarf an Hadoop Betriebskenntnissen. Vereinfachung des RZ Betriebes ist ein wichtiges Prinzip von Cisco.

Erkenntnisse durch tiefgreifende integrierte Analysen
Die durch die Cisco Tetration Analytics gesammelten Daten bilden die Grundlage zu den oben genannten Anforderungen im modernen Rechenzentrum. Erst durch das Zusammenspiel von Applikations-, Sicherheits- und Netzwerkverantwortlichen wird es möglich, aus diesen Daten relevante, Business bezogene Erkenntnisse zu erstellen, die einen stabileren, sichereren und überschaubaren IT Betrieb gewährleisten.

So bietet zum Beispiel das „Application dependency mapping“, ADM, Modul automatisiert, durch maschinelles Lernen gestützt einen Überblick über die Kommunikation der jeweiligen Applikation. Aber erst durch das gezielte Hinterfragen entsteht hier eine Wertschöpfung. Hier ein Beispiel: Ein Applikationscluster weist keine Kommunikation in Richtung DNS Server auf, die Überprüfung ergab, dass initial der Cluster mit „Hostfiles“, also mit dezentral administrierter IP- /Namens-Verwaltung, gebaut wurde. Dadurch sind dynamische Änderungen so gut wie ausgeschlossen. Auch Redundanz-Konzepte wie verteilte DNS Strukturen lassen sich in der Verwendung aufdecken.

Im Bereich Forensik und Compliance lässt sich der aktuelle IP Verkehr in Echtzeit gegen ein Regelwerk, das im ADM erstellt wurde, überprüfen und Verstöße durch Alarmierung hervorheben. So können Ausnahmen der IP Kommunikation in die aktuellen Applikationscluster übernommen werden oder Maßnahmen ergriffen werden, um diese Verstöße zu unterbinden. Beides führt dazu, dass Applikationslandschaften sicherer und durchschaubarer und operationelle Risiken gemindert werden. Durch die dabei verwendeten Maschinenlernverfahren wird auch die Netzwerkforensik gestützt. In der Vergangenheit wurden durch „Baselining“ des Rechenzentrumsverkehrs Ausnahmen von der Regel aufgedeckt; leider haben sich diese Methoden nicht durchgängig etablieren können, da meistens der Kosten-Nutzen-Faktor nicht erreicht wurde. Ausnahmen sind Umgebungen, die zur Vermeidung von „von Non-Compliance“ die hohen Kosten zum Erreichen des Konformitätsstatus in Kauf nehmen.

Durch die bis zu 18-monatige Aufzeichnung der IP Kommunikation lässt sich mit Cisco Tetration Analytics nun auf einfachem Weg dieser Nutzen erreichen. Die maschinenbasierten Lernverfahren heben Abweichungen von der Norm hervor, die in der Vielzahl von Kommunikationsverbindungen sonst untergehen würden. So werden zum Beispiel einzelne Flows hervorgehoben, bei denen die Applikationslatency außergewöhnlich hoch ist, und das im Vergleich zur selben Applikation in einem anderen Zeitraum. Hier besteht nun die Möglichkeit, gezielt einzelne Systeme im Applikationsverbund zu untersuchen.

Kundenzitat:
“Cisco’s Tetration Analytics Plattform hat uns einen beispiellosen Einblick in unser Netzwerk und Anwendungslandschaft gegeben und ermöglicht es uns, von einem herkömmlichen
„Blacklisting“ Modell zu dem wesentlich sichereren Whitelisting Modell von ACI zu migrieren.”
Kunde aus dem Gesundheitssektor

So sind Kundenprojekte zur Cloud Migration mehrfach daran gescheitert, dass nicht alle Abhängigkeiten der Applikationen bekannt waren. Oder deren Abhängigkeit im Bereich Delay und Latency nicht in der Cloud erfüllt werden konnten. Dies hätte durch den Einsatz von Cisco Tetration Analytics im Vorfeld aufgedeckt und vermieden werden können.

Durch die allumfänglichen Kommunikationsinformationen besteht nun zum ersten Mal die Möglichkeit, ein Whitelisting Policy Model anzustreben, da alle benötigten Parameter bekannt sind. Diese Parameter lassen sich im Policy Modul in exportfähige standardisierte Dateiformate wie YML, JSON oder XML überführen. Diese bieten die Möglichkeit, in die unterschiedlichen „enforcement“ Systeme übertragen zu werden. Als Beispiel ist es möglich, diese als Grundlage für Firewall Systeme zu nehmen. Beziehungsweise kann man das aktuelle Regelwerk mit diesen Parametern auf überflüssige Freischaltungen überprüfen.

Die Anforderungen der Applikationen haben sich stark verändert. Moderne Applikationen basieren auf Micro Services. Diese werden kontinuierlich weiterentwickelt, was wiederum bedeutet, dass die Container nur eine kurze Lebensdauer haben. Zudem sind diese nicht mehr an festgelegte Hostsysteme, Baremetal oder auch virtuelle Maschinen gebunden. Somit bedarf es auch für die Unterstützung derartiger Applikationsumgebungen im Rechenzentrum neuer und umfänglicher Methoden der Betriebsunterstützung.

Erst durch die Analyse und Aufbereitung aller Kommunikationsparameter kann man dem Anspruch an Sicherheit, Konformität und Überschaubarkeit gerecht werden.

zugeordnete Kategorien: Data Center, LAN
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.