RZs gegen die Cloud: ist Kapazitäts- Management der Schlüssel?

Kommentieren Drucken

Ohne Frage ist die optimale Investition in Kapazität, sei es Server, Speicher oder Netzwerk, ein entscheidender Faktor für die Wirtschaftlichkeit von IT. Und Optimalität wird hier nicht nur durch den Preis bestimmt, sondern und vor allem auch durch den Zeitpunkt. Was auf den ersten Blick harmlos klingt, ist aber im Konflikt zwischen Bedarf und Technologie-Entwicklung ein komplexes Thema.

Auf der einen Seite steht ein Bedarf, der sich je nach Anwendung und Unternehmen sehr spontan und auch häufig nur schwer planbar entwickelt. Auf der anderen Seite steht die Weiterentwicklung der Kerntechnologien Server, Speicher und Netzwerk. Diese hat sich zwar in den letzten Jahren verlangsamt (siehe den Wechsel Intels hin zu einem dreijährigen Technologie-Zyklus oder die deutlich größeren Zeitabstände zwischen neuen Technologien für Smartphones), aber er ist immer noch sehr relevant.

Nehmen wir als Beispiel die Entwicklung von Rechnerleistung am Beispiel des neuen Intel Broadwell E7v4. Die ct hat in Heft 14 eine Übersicht über gängige Benchmarks veröffentlicht und für entsprechende Details sei auf diesen Artikel verwiesen. Aber wenn wir nur ein einziges Beispiel aus dem Artikel herausgreifen, wird die Problematik für die Wahl des optimalen Investitions-Zeitpunkts sofort sichtbar. Es geht hierbei um die Frage, wie viele SAP-SD Benutzer ein System mit Antwortzeiten unter einer Sekunde versorgen kann. Der Artikel bringt folgende Werte basierend auf Systemen von Lenovo und Dell:

  • Westmere EX vor 4 bis 5 Jahren: ca. 14000 Benutzer
  • Ivy-Bridge EX vor zwei Jahren: ca. 25000 Benutzer
  • Haswell EX vor einem Jahr: ca. 30000 Benutzer
  • Broadwell EX (E7-8890v4): ca. 41000 Benutzer

Für Rechenzentren, die sich in einem direkten Kostenvergleich mit der Cloud befinden, offenbart sich hier ein Dilemma. Alle diese Systeme haben bzw. hatten ähnliche Grundkosten. Die Kosten pro Benutzer sind aber je nach Investitionszeitpunkt sehr verschieden. Hat also ein Rechenzentrum, das die vollen Investitions-Zyklen ausreizt, überhaupt eine Chance gegen ein Cloud-RZ, das zwar dieselben Grundprobleme hat, aber aufgrund der Größe und des schnellen Wachstums zu einem wirtschaftlich günstigeren Mix kommt (es ist nicht bekannt, wie lange solche Server in der Cloud im Einsatz sind, aber durch die kontinuierliche Neuinvestition entsteht in jedem Fall ein besserer Mix).

Also haben Rechenzentren überhaupt keine Chance? Ist Kapazitäts-Management ein solcher Vorteil für die Cloud, dass hier ein unüberwindbarer Wettbewerbs-Vorteil liegt?

Bild 1: Die Kernfrage bei der Entwicklung einer wirtschaftlich und technisch optimalen Kapazität wird für viele Unternehmen lauten: Scale-Up oder Scale-Out. Was dabei häufig übersehen wird ist, dass die Entscheidung Technologie-übergreifend funktionieren muss. Wer sich für Scale-Out bei Servern entscheidet braucht auch ein Scala-Out-Netzwerk zumindest im Access-Bereich.

Nun, zum einen muss erst einmal festgestellt werden, dass das angeführte Beispiel nicht die Situation der Cloud trifft. In der Cloud wird nicht die Parallelität innerhalb eines einzelnen Systems optimiert. Es zählen nicht die physikalischen und logischen Kerne pro System. Was zählt ist die Parallelität der installierten Server. Und die Cloud strebt hier nach dem Kosten-Optimum aus Leistung und Kosten inklusive der Betriebskosten und zum Beispiel dem dabei entstehenden Energieverbrauch. Dieses Optimum liegt aber eher beim E5 als beim E7. Die Spitzenleistung eines einzelnen Systems zählt in der Cloud nicht. Von daher laufen auch Anwendungen, die High-End-Server benötigen, in der Regel nicht in der Konkurrenz zur Cloud. Sie sind und bleiben ein Heimspiel für das Rechenzentrum. Auch weil bei solchen Systemen Ausfallsicherheit und Fehler-Recovery eine große Rolle spielen, die wiederum in der Cloud bewusst kein Planungsziel für ein einzelnes System sind. Ausfallsicherheit entsteht in der Cloud durch die Software-Architektur und die Parallelität von virtuellen Maschinen auf verschiedenen physikalischen Servern. Dummerweise trifft dieser potenzielle Vorteil der Rechenzentren nur auf eine kleine Zahl von Anwendungen zu. Und viele der neu auf den Markt kommenden Anwendungen haben Software-Architekturen, die mehr der Architektur der Cloud entsprechen. Historisch sind dabei viele Rechenzentren dadurch geschützt, dass sie eine Vielzahl von Anwendungen unterstützen müssen, die häufig gar nicht Cloud-fähig wären. Aber zum einen unterliegen sie trotzdem einem Preisvergleich und zum anderen ist es eine reine Frage der Zeit, bis mehr und mehr der vorhandenen Applikationen auf einer Cloud-Infrastruktur aufsetzen könnten.

Unternehmen kommen also für diese Massen-Anwendungen mit Parallel-Architekturen nicht daran vorbei eine der Cloud vergleichbare Architektur aufzubauen. Und hier zählt nicht die Spitzenleistung, sondern die Skalierbarkeit über die Anzahl der Systeme. Allerdings sind Technologien so wie sie in der Cloud im Einsatz sind in einem immer größeren Umfang auch für normale Rechenzentren nutzbar. Wichtig ist dabei, dass ein Rechenzentrum alle seine Kapazitäten gezielt nach dem Grundsatz der schnellen Skalierbarkeit auslegt.

Ein weiterer Vorteil der Cloud, der sich aus der strikten Standardisierung einer Massenarchitektur ergibt, ist die damit mögliche Optimierung der Betriebsprozesse. So hat Facebook das Ziel pro 40.000 Server mit einem Betreuer arbeiten zu können. Auch hier stellt sich die Frage, ob ein Rechenzentrum angesichts dieser Zahlen überhaupt eine Chance hat. Tatsächlich hinkt dieser Vergleich aber erheblich. Die Antwort ist, dass die Cloud-Betreiber komplett andere Prozesse zu optimieren haben als ein Standard-Rechenzentrum. In einem Rechenzentrum liegt der Schwerpunkt der Personal-Aufwendungen in der Anwender- und Anwendungs-Betreuung. Die Auslegung und der Betrieb der Basis-Technologien Server, Speicher, Netzwerk müssen dazu beitragen diese Prozesse zu optimieren. Dies drückt sich zum Beispiel in einem auf den Betreuungspunkt optimierten System-Management aus, das voll in den User-Help-Desk integriert ist. Damit sind im Falle einer Störung Analysen nach der Ursache und nach den betroffenen Prozessen möglich. Gerade die Frage nach den betroffenen Prozessen ist in einem 24/7-Betrieb von entscheidender Bedeutung und ist die Basis für die in der Regel vorhandenen Eskalations- und Notrufschemata. Mit der häufig als nachfliegendes Ziel angesprochenen Integration der Cloud in ein Rechenzentrum entsteht ein möglicher Bruch der Betreuungsprozesse. Dieser Bruch kann gerade außerhalb der Normalarbeitszeit zu einem erheblichen Problem werden. Dieser Gedanke soll aufgrund seiner Bedeutung noch einmal wiederholt werden: Cloud-Betreiber optimieren andere Prozesse als die Betreiber eines Rechenzentrums. Von daher sind mögliche Kostenvorteile im direkten Hardware-Betrieb nicht unbedingt ein entscheidender Vorteil, aber sie sind natürlich immer gegeben. Sie müssen abgewogen werden mit dem Primärziel der Optimierung der Kern-Betriebsprozesse eines Rechenzentrums. Und einer Einsparung von 0,5 Personen im Serverbetrieb stehen dann schnell Prozessverluste in deutlich höheren Dimensionen gegenüber.

Bild 2: Prozess-Optimierung der Nutzungs- und Betreuungsprozesse ist wichtiger als die Optimierung eines singulären Personaleinsatzes für eine Kerntechnologie wie Server, praktisch kann die Reduzierung der Server- oder Netzwerk-Administration den Personalbedarf an anderer Stelle in einem 24/7 Betrieb erhöhen

Allerdings stellt sich an dieser Stelle die Frage, ob ein Rechenzentrum seine Gesamt-Prozess-Situation dadurch verbessern kann, indem es eine Private Cloud-Infrastruktur unter Nutzung von Cloud-Technologien aufbaut. OpenStack liefert dafür die theoretische Basis. Und tatsächlich lassen sich mit solchen Private Cloud-Installationen Vorteile erreichen. Diese haben aber zumindest noch im Moment und voraussichtlich für die nächsten Jahre den Nachteil erheblicher Kosten sowohl für den Aufbau als auch für die Pflege der Infrastruktur. Auch macht es keinen Sinn OpenStack isoliert einzuführen. Die gesamte Technologie-Pyramide muss dann auf diese Technologie ausgelegt sein und dementsprechend auch OpenStack unterstützen. Dies wird häufig mit der fast vollständigen Ablösung der kompletten Infrastruktur aus Servern, Speicher und Netzwerk einhergehen. Da dies für die meisten Unternehmen niemals direkt wirtschaftlich sein wird, wird der gängige Weg ein mehrjähriger stufenweiser Einstieg in diese Technologie sein. Wir gehen im Moment davon aus, dass sich dies nur für wenige sehr große Unternehmen rentieren wird.

Damit kommen wir zur Ausgangsfrage zurück. Wie wichtig ist die optimale Investition in Kapazität? Die Antwort ist: sie ist sehr wichtig. Vor allem muss die Technologie-übergreifende Skalierbarkeit zum führenden Design-Prinzip werden. Aber im direkten Vergleich der Cloud mit einem Rechenzentrum muss aufgepasst werden, dass nicht Äpfel mit Birnen verglichen werden. Unter dem Strich muss die Gesamtrechnung stimmen. Und die wird im Rechenzentrum von der Anwendungs- und Anwenderbeteuerung bestimmt.

zugeordnete Kategorien: Cloud Computing, Data Center
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.