Neue Speicherlösungen verändern den Markt

Kommentieren Drucken

Server- und Speicherkonsolidierung führen zu einem Bedarf nach einer neuen Kategorie von Speicher. War früher der Markt zweigeteilt in den Server-Speicher auf der einen Seite (DAS) und das SAN auf der anderen Seite, so ist diese Struktur nicht weiter aufrecht zu erhalten. Direct Attached Storage wird im Rahmen der Konsolidierung durch zentralen Speicher abgelöst, doch das traditionelles SAN kann die Rolle des neuen zentralen Speichers nicht übernehmen. Es ist zu teuer und zu komplex. Auch ist es traditionell auf große Datenbank-Applikationen ausgelegt. Die neue Welt ist eine wilde Mischung aus E-Mail- und Web-Servern kombiniert mit kleineren Datenbank-Anwendungen und angereichert um „normalen“ Dateispeicher. Gerade die Unvorhersehbarkeit des Lastprofils virtueller Server in Kombination mit der flexiblen Ortswahl und dem Wandern virtueller Maschinen generiert eine neue Klasse von Anforderungen.

In Konsequenz ist der Bedarf nach einer neuen Produktgruppe entstanden mit den Kriterien:

  • preiswert: die Kosten der bisherigen DAS- und SAN-Lösungen müssen deutlich unterboten werden. SAN-Qualität zum Preis von weniger als DAS, aber mit der Performance von DAS ist gefragt,
  • einfach zu handhaben: Automatisierung der Konfiguration und Zuordnung zu einem Bedarfsprofil im Sinne eines Self-Provisioning,
  • flexibel: schnelle Reaktion auf einen weiter wachsenden Bedarf nach mehr Speicher, Unterstützung von spontan veränderlichen Konfigurationen,
  • intelligente Performance: zentraler Speicher darf den Server und die Applikation nicht bremsen, angesichts der Entwicklung bei Servern und Web-Applikationen ist das eine Herausforderung. Der Bedarf ist klar: mehr Benutzer, mehr Transaktionen, mehr Durchsatz. Aber intelligent: Leistung nur da, wo sie auch benötigt wird
  • gestaltbar: leicht anpassbar an unterschiedliche Lokationen wie Remote Offices und verteilte Rechenzentren sowie gestaltbar in der Form der Nutzung,
  • universell: Integration von Block- und File-Zugriff, Angebot aller gängigen Schnittstellen vom Fibre Channel über FCoE bis iSCSI.

Die bisherigen Lösungen versagen angesichts dieser Anforderungen:

  • Der Betriebsaufwand und die Kosten der Kombination traditioneller SANs mit virtuellen Umgebungen sind deutlich zu hoch.
  • Traditionelle SANs sind weder flexibel noch intelligent.
  • Einstiegslösungen aus dem unteren iSCSI-Markt erfüllen viele der Anforderungen nicht.
  • Viele der bisherigen Lösungen erfüllen die Leistungsanforderungen der Zukunft nicht.

Tatsächlich sind die Anforderungen nur mit einer Mischung neuer Technologien zu erfüllen:

  • Deduplizierung ist ein wesentlicher Schlüssel zur Konsolidierung von File- und E-Mail-Servern. Auch Kompression ist eine wichtige Eigenschaft.
  • Auto-Tiering ist zwingend erforderlich. Sei es innerhalb eines Produktes mit der Zuordnung zu Cache und SSD, sei es über mehrere Produkte hinweg.
  • Ohne Thin-Provisioning lassen sich die notwendigen Effizienzgrade nicht erreichen. Preiswerter und besser als bisher ist die Messlatte.
  • Die Reduzierung auf eine Art des Zugangs, sei es FC oder iSCSI ist nicht mehr länger aufrecht zu erhalten. Bei den untersten Einstiegssystemen mag man noch Argumente für eine reine iSCSI-Lösung finden, aber gerade der hohe Grad an Diversifizierung in virtuellen Umgebungen setzt voraus, dass alle Türen offen bleiben. Damit stirbt auch die Diskussion um FC oder FCoE. Beides muss schlichtweg möglich sein.
  • Es wird nicht ohne SSD gehen. Der Anspruch, einen Server ohne Leistungsverlust im Vergleich zur alten DAS-Lösung mit einem zentralen Speicher zu versorgen ist angesichts der Entwicklung im Prozessor-Markt nicht mehr ohne SSD machbar. Die Schere zwischen CPU-Leistung und Speicher-Performance geht weiter auseinander. Der springende Punkt hier ist die Intelligenz. Viele Anwendungen brauchen die Performance eines SSD-unterstützten Speichersystems nicht. Reine SSD-Lösungen sind für 90% aller Anwendungen zu teuer und gar nicht erforderlich. Der Aspekt der intelligenten Performance ist hier der Schlüssel. Leistung dort erbringen wo sie auch benötigt wird. Das Stichwort sind hier auch Auto-Tiering, das je nach Lösung aber sehr unterschiedlich umgesetzt werden kann.

Offen bleibt die Nutzbarkeit von Cloud Storage in diesem Zusammenhang. Bedingt durch die hohen Zugriffszeiten eignet sich Cloud Storage nicht für Datenbank-Anwendungen. Für Backup-Lösungen entsteht schnell das Problem, dass durch die begrenzte Bandbreite sowohl während des Backups als auch speziell in einer Restore-Situation zu viel Zeit verbraucht wird. Trotzdem hat natürlich der Cloud-Storage einige der neuen Storage-Produkte „inspiriert“. Speziell die Aspekte der Einfachheit und des Self-Provisionings kommen aus dieser Welt.

Tatsächlich aber gibt es einen Bedarf für Cloud-Storage für neue Anwendungen. Mobile Endgeräte müssen in die Unternehmen integriert werden. Cloud-Storage bietet die optimale Basis dazu.

In Konsequenz entsteht momentan ein völlig neuer Typ von Speicherlösungen. Dieser stellt gleichzeitig die Wirtschaftlichkeit der traditionellen SANs in Frage. Diese sehen in der Tat gegenüber den neuen Lösungen „alt“ aus. Das ganze explosive Gemisch wird gewürzt mit neuen Technologien wie SSDs und Cloud Storage. Heraus kommt eine Lösungsklasse, die es so bisher nicht gab:

  • hochgradig wirtschaftlich,
  • sehr Leistungsstark mit extrem hoher Performance,
  • extrem flexibel und gestaltbar,
  • für alle Unternehmensgrößen nutzbar.

Diese Entwicklung hat ihren Preis auf der Seite der Infrastrukturen. Mehr und mehr Speicherverkehr wird über Ethernet transportiert, auch wenn der Fibre-Channel-Zugang weiterhin stark genutzt wird. Ethernet wird immer die Ortsunabhängigkeit und die bereits vorhandene Flächendeckung als Argument haben, auch wenn für die Nutzung als Speichernetzwerk die passenden Standards und ein Layer-2-Netzwerk vorhanden sein müssen. Wir sind in einem Übergang hin zu 10 Gigabit und mehr pro Port, sowohl für FC als auch für Ethernet. Und trotzdem stellt sich die Frage, ob die vorhandene Infrastruktur wirklich auf Dauer skaliert. Vorrübergehend sind sicher 10 Gigabit Ethernet und 16 Gigabit FC die Mittel der Wahl, doch auf Dauer wird man an 100 Gigabit nicht vorbei kommen.

Blickt man drei bis fünf Jahre in die Zukunft, dann muss auch die Frage gestellt werden, was weiter auf der Server-Seite passiert. Die immer weiter fortschreitende Integration und die immer höhere Dichte von Transistoren (siehe die 3D-22nm-Tri-Gate-Entwicklung bei Intel) werden die Server-Landschaft verändern. In drei oder vier Jahren werden wir mit 12nm-Technologie eine Leistungsdichte erreichen, die wohl am ehesten mit dem Übergang von Kernspeicher zum Transistor verglichen werden kann. Wer die zunehmende Konzentration im Rechenzentrum der letzten 40 Jahre beobachtet hat, der wird sich die Frage stellen, was die nächste Integrationsstufe eigentlich bedeutet.

Tatsächlich werden wir Auswirkungen dieser Entwicklung sowohl auf der Server- als auch auf der Speicherseite haben. Auf der Serverseite werden wir in der Hardware in 5 Jahren Schränke haben, die den Serverumfang eines kompletten Unternehmens aus dem Jahr 2000 in einem einzigen Schrank aufnehmen werden. Für solche Schränke bekommt die Diskussion über wandernde virtuelle Maschinen und flexible Leistungsprofile in der Hardware eine völlig neue Bedeutung. Auch die Frage nach dem Netzwerk wird sich relativieren und verschieben, wenn große Teile der heute üblichen Netzwerk-Vorgänge nur noch innerhalb eines Schranks stattfinden. Auf der Speicherseite wird der Überfluss an Transistoren zu neuen Formen von SSD-Lösungen führen. Mehr Kapazität und deutlich geringere Kosten werden die Folge sein. Für die „normalen“ RZ-Netzwerke ist eine Explosion im Leistungsbedarf die logische Folge. Allerdings werden die Netzwerke kleiner werden, da weniger Anschlusspunkte zu versorgen sind. Wird es wirklich so kommen? Noch können wir auf die dämpfende Wirkung der Software „hoffen“. Microsoft hat nach wie vor große Probleme, eine große Zahl von Kernen mit seinen Betriebssystemen zu unterstützen. Aber auch für andere Betriebssysteme entstehen mit Blades, die dann vielleicht 500 Kerne haben, erhebliche, vielleicht sogar unlösbare, Herausforderungen.

Kommen wir zurück zu den neuen Speicherlösungen. Diese sind in der dargestellten Entwicklung ein wichtiger Baustein in der Entwicklung. Sie lösen die „alte“ Welt ab und bilden die Voraussetzung für jede weitere Form der Server- und Applikations-Konsolidierung. Der Wechsel in diese neue Speicherwelt ist somit für alle Unternehmen von erheblicher Bedeutung.

zugeordnete Kategorien: Data Center
zugeordnete Tags: , , ,

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.