Virtualisierung und Speichertechnologie

Kommentieren Drucken
Teil 7 von 19 aus der Serie "Virtualisierungstechniken"

Durch die Vision, dass prinzipiell alle VMs auf gemeinsam nutzbare Speicher-Ressourcen zugreifen können, entsteht ein ganzes Problemuniversum. In dieser Reihe werden wir uns noch mehrfach damit befassen. In dieser Folge geht es zunächst um grundsätzliche Fragestellungen.

Die Virtualisierung hat, wie könnte es auch anders sein, erhebliche Auswirkungen auf die Speichertechnologie. Daher müssen wir hier die grundsätzlichen Zusammenhänge darstellen. Genau, wie sich die virtuellen Maschinen freizügig über die Server bewegen, müssen sie auch jederzeit einen hochqualitativen Zugang zu den Speicherressourcen haben. Merken Sie etwas? Wenn man das zu Ende denkt, wird das Netzwerk zum Systembus! Wir arbeiten uns erst in die allgemeinen Anforderungen und Zusammenhänge ein und kommen zum Abschluss dieses Abschnittes zu einem weiteren Highlight aus Produktsicht: wandernde Disk Files mit Storage vMotion

Die Konvergenz von LAN und SAN im RZ, I/O-Konsolidierung und Begriffe wie NAS, SAN, iSCSI, FCoE, CEE, DEE, DCB, EoFC & Co. Hängen damit zusammen, bilden aber einen eigenen so großen Themenblock, dass wir das gesondert und zusammenhängend behandeln werden.

Wie immer, ist es sinnvoll, zunächst auf die grundsätzlichen Methoden des Speicherzugriffs in einem klassischen Betriebssystem zu blicken.

Anwendungen gehen davon aus, dass sie einen einzigen großen Speicherraum zur Verfügung haben. Dieser ist aufgeteilt in Seiten à X KB. Jede Adresse gibt demnach Seitennummer und Position in der Seite an. Von einem (früher schon als virtuell bezeichnetem) Speicherraum der gekennzeichneten Art wird zu einer Zeit immer nur ein kleiner Teil benötigt (Lokalitätsprinzip).

Es ist also Unsinn, diesen Speicher tatsächlich zur Verfügung zu stellen. In der Praxis liegt der „virtuelle Speicher“ auf der Festplatte. Im RAM wird der aktuell benutzte Anteil in RAM-Seiten (Kacheln) bereitgestellt. Bei der Adressierung verwendet die Anwendung virtuelle Adressen. Ein CPU-nah realisierter Memory Management Unit Process sieht nach, ob die geforderte Seite im RAM vorhanden ist oder nachgeladen werden muss. Das Nachladen geschieht mit einer sogenannten Seitenersetzungsstrategie (Demand Paging), die durch einen systemunterstützenden Elementarprozess implementiert wird.

Bild 1 stellt die Zusammenhänge dar. In der Abbildung ist der MMU-Prozess auf der gleichen Ebene wie ein Anwendungsprozess realisiert. Das dient eher der Verdeutlichung, weil er auch eine Stufe tiefer implementiert werden kann, um eine größere Nähe zur Hardware aufzuweisen.

In den vergangenen Jahrzehnten wurden sehr viele Verbesserungen eingeführt, um den Prozess der Seitenersetzung zu beschleunigen. Dazu gehört vor allem der weite Bereich der Pre-Caching-Techniken. Hier versucht ein ein „intelligentes“ Demand Paging Verfahren, Seiten vorschauend zu laden, die die Anwendung in naher Zukunft mit hoher Wahrscheinlichkeit benötigen wird. Andere Alternativen ergeben sich aus der Annahme, dass sich die Anwendung relativ kontinuierlich auf dem Speicher bewegt und man daher eine Art „Sliding Window“ für das Nachladen aufbauen kann.

In einem Rechner mit Virtualisierung muss für jede virtuelle Maschine eine so genannte Shadow-Tabelle erzeugt werden, die das virtuelle RAM dieser virtuellen Maschine darstellt und mit einem virtuellen Paging-Algorithmus versehen wird.

Die Erzeugung und Verwaltung dieser Shadow-Tabellen durch den Hypervisor produziert mit die größte Last bzw. den größten Performance-Verlust.

Beim Wechsel auf eine andere virtuelle Maschine muss der Hypervisor die MMU in der physikalischen CPU durch die Shadow-Tabelle dieser VM ersetzen

Wir sehen das in Bild 2.

Ohne HW-Unterstützung ist der Hypervisor mittelfristig verloren. Eine HW-Unterstützung kann so aussehen, dass ein oder mehrere Prozessoren aus dem Multicore dazu genutzt werden, Hardware-nahe Speicherbilder zu erzeugen, die vom Hypervisor wie tatsächliche Hardware angesprochen und benutzt werden können, siehe dazu Bild 3.

Die betroffenen Hersteller (Intel, AMD …) arbeiten daran. Die Hypervisor-Engpässe können nur dann gelöst werden, wenn wir von der Software wieder zurück zur Hardware gehen

Diese Erkenntnis ist extrem wichtig, um die Diskussion auf der Netzwerkseite zu verstehen!

Bis hierher hatten wir uns auf die Verhältnisse innerhalb eines einzelnen Servers beschränkt. Erinnern wir uns an die Vision von VMware: hier wurden alle externen Massenspeichersysteme in das Gesamtkonzept eingebunden. Bis das so funktioniert, ist es aber ein weiter Weg.

Es gibt in der Praxis heute einige unhaltbare Dinge:

  • Verteilung von Speicher auf viele physikalische Instanzen
  • Fehlende Trennung von logischem und physischem Speicher

Virtualisierung und verteilter Speicher passen aber nicht zusammen.

Glücklicherweise gibt es aber mehrere sich ergänzende Trends, die uns helfen können:

  • Preisverfall von SAN-Lösungen bei gleichzeitig immer besserer Management-SW,
  • Trennung von Rechenleistung und Speicher,
  • immer höhere I/O-Raten der Hypervisor-SW.

Auch für kleinere Unternehmen wird es deshalb immer attraktiver, zentralen Speicher einzusetzen.

Virtualisierung wird ohne den Aufbau eines zentralen Speichersystems auch schon in kleineren Umgebungen ihre Vorteile nur teilweise nutzen können. Tatsächlich wird im Rahmen von Virtualisierung lokaler Speicher immer mehr durch zentralen Speicher ersetzt werden. Die dichte Kooperation zwischen z. B. EMC und VMware zeigt, wie nahe diese Technologien zusammenliegen.

Zentral ist also die Frage, wie der Zugriff seitens der virtuellen Maschinen auf „Speicher-Server“ erfolgt.

Eine wesentliche Rolle spielt dabei die „Speicher-Konsolidierung“.

Nach wie vor arbeiten Unternehmen mit vielen verteilt stehenden Servern und lokalem Plattenspeicher. Das fehlende zentrale Management der lokalen Festplatten und logischen Laufwerke erzeugt erhebliche Kosten und eine ineffiziente Speicher- und Server-Nutzung.

Zentrale Speicher-Lösungen waren in der Vergangenheit häufig teuer aber die Preise für NAS, iSCSI und SAN-Lösungen fallen kontinuierlich und machen diese Technologie auch für kleinere Unternehmen interessant. Es ergeben sich allgemein folgende Vorteile einer erfolgreichen Speicher-Konsolidierung:

  • einfache Erweiterbarkeit,
  • viele Varianten der Nutzung,
  • einfache Überwachung, schnelle Reaktion auf Fehler,
  • Hochverfügbarkeit,
  • Backup-Optimierung.

Bild 4 fasst die Alternativen zur Speicherkonsolidierung nochmal schön zusammen, obwohl Sie das alle schon kennen. Wichtig bei der Darstellung ist die relative Positionierung der Komponenten, besonders des Netzes.

Man kann über die Konzepte NAS und SAN lebenslang diskutieren und wird immer wieder Argumente finden, die für das eine oder das andere sprechen. Das Ergebnis, welche der Alternativen man am Ende nimmt, hängt von sehr vielen Einflußfaktoren ab. Da gibt es mindestens folgende Bereiche

  • File-Zugriff: NAS, SAN oder SAN/NAS-Hybridsysteme
  • Block-Zugriff
    • iSCSI
    • Fibre Channel FC
    • Fibre Channel over Ethernet FCoE

Insgesamt bestimmt die Art des Zugangs bestimmt die Kosten und die Leistung, aber nicht die Funktionalität:

  • Verwaltung und Reporting allgemein
  • Boot from SAN
  • SAN-Virtualisierung
  • SAN-Sharing
  • hierarchisches Speicher-Management

Letztlich ist es so, dass alle großen Hersteller wie HP oder IBM auch in Zukunft beide Alternativen vollumfänglich unterstützen, so dass der Kunde die Wahl hat und die Alternativen sogar mischen kann.

Die Hersteller von Virtualisierungssoftware wollen auf jeden Fall das Netzwerk zum Systembus machen, wie das Bild 5 zeigt.

Die Software Storage vMotion erlaubt das Wandern von Disk Files virtueller Maschinen über heterogene Speichersysteme. Die zugrunde liegenden Mechanismen sind denen der wandernden virtuellen Maschinen sehr ähnlich, so dass wir das hier nicht weiter ausführen müssen.

Wesentlich ist die Frage, wie wir das jetzt alles auf das Netz bringen können.

In heutigen RZs benutzen Unternehmen üblicherweise Ethernet für die TCP/IP-Netze und Fibre Channel für Storage Area Networks SAN.

Ethernet-Netzwerke werden üblicherweise dazu aufgebaut, dass Benutzer relativ geringe Datenmengen über LANs oder auch größere Distanzen bekommen können.

Storage Area Networks sind in Unternehmen und Organisationen implementiert, die für Anwendungen wie Booting, Mail Server, File Server oder große Datenbanken den Zugriff auf Block-I/O benötigen.

Die Vorteile der SANs sind

  • zentralisiertes Management
  • hohe Sicherheit
  • sinnfälliger Verwaltung der Speicher-Ressourcen,
  • einheitliche Darstellung und Implementierung spezieller Storage Services, wie periodische Backups
  • Unterstützung des Betriebs effektiver Benutzungsniveaus der Speicher-Ressourcen.

Die Konvergenz von LAN und SAN im RZ bringt eine Reihe möglicher Vorteile.
Konvergenz beruht auf der Abbildung von „Speicherverkehr“ auf die Ethernet Switching Fabric mittels iSCSI oder FCoE. iSCSI ist bewährt und problemlos, FCoE klingt zunächst einmal gut, stellt aber zusätzliche Anforderungen an die Ethernet Switching Fabric, die ggf. komplex und kritisch werden können, obwohl sie sich zunächst trivial anhören.

Mit dem Standard FC-BB-5 ist auch FCIP, also FC über IP, wieder in den Focus des Interesses gerückt. FCIP kann wie iSCSI auf einem ganz normalen Ethernet laufen. Beide Systeme wären für Hochleistungs-Anwendungen eigentlich zu langsam und würden einen Prozessor zu stark belasten, können aber durch geeignete Hardware-Unterstützung auf NICs bzw. HBAs wirklich schnell gemacht werden.

Sie sehen schon, das gibt ganz viele Diskussionen, die wir an einer anderen Stelle führen.

« Teil 6: Wandernde virtuelle MaschinenTeil 8: Weitere Virtualisierungsthemen »


zugeordnete Kategorien: Virtualisierung
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.