Rechenzentrum Infrastruktur Redesign: Brauchen wir das überhaupt?

Kommentieren Drucken

Intel kündigt permanent Chips mit geringerem Stromverbrauch an, der Übergang auf 10 Gigabit ist sowieso schon erfolgt, FCoE dümpelt vor sich hin und wir verlagern unser RZ ohnehin aus Kostengründen in die Cloud.  Das ist eine der möglichen Sichtweisen. Niemand braucht neue Infrastrukturen. Aber ist diese Sichtweise wirklich haltbar?

Fangen wir mit der Cloud an und betrachten Zynga. Zynga ist als Anbieter von Webspielen (Farmville etc.) eines der Unternehmen, denen man immer unterstellt, dass die Cloud die perfekte Lösung für deren IT-Bedarf ist. Keine notwendigen Vorinvestitionen und nur die wirklich benötigten Ressourcen müssen bezahlt werden. Nun hat es in der amerikanischen Presse in den letzten Wochen eine interessante Diskussion über Zynga gegeben. Tatsächlich benutzt Zynga Amazon-Dienste nur im Rahmen des Aufbaus eines neuen  Produkts. Sobald klar ist, dass das Produkt erfolgreich ist und eine kritische Masse von Benutzern erreicht ist, schaltet Zynga auf die eigenen Rechenzentren um. Diese basieren auf hochgradig optimierten virtuellen Umgebungen (in diesem Fall ZEN ergänzt um selbst entwickelte Software). Klare Aussage: Amazon ist zu teuer für ein etabliertes Produkt. Unter Nutzung derselben Technik, die auch Amazon als Cloud-Anbieter einsetzt, kommt man im eigenen Unternehmen zu einer technisch und wirtschaftlich besseren Lösung. Das deckt sich mit der Cloud-Bewertung von ComConsult Research (siehe die Studie: Public und Private Clouds in der Analyse).

Stellen wir also erst einmal fest: Unser Rechenzentrum ist lebendiger denn je. Die Cloud mag interessante Zusatz-Optionen liefern, aber sie stellt die grundsätzliche Bedeutung des Rechenzentrums nicht in Frage.

Welche Auswirkungen werden AMD und Intel auf die Entwicklung im RZ haben? Nun viele Neuentwicklungen großer Applikationen werden auf virtuellen Architekturen aufsetzen. Sie skalieren besser und harmonieren somit perfekt mit den Skalierungs-Eigenschaften von Standard-Server-Technik. Die Bedeutung von virtueller Server-Technologie wird also weiter zunehmen. Die zentrale Frage ist: was machen wir in Zukunft mit den vielen Transistoren, die uns 22nm und 11nm-Technik in den nächsten 5 Jahren liefern werden? Schon heute überschreitet die Zahl theoretisch möglicher Kerne pro Blade das Leistungsvermögen von mindestens einem wichtigen Server-Betriebssystem (sind wir wirklich überrascht? Was treiben die Microsoft-Entwickler eigentlich mit dem vielen Geld, das sie verdienen?). Aber selbst wenn in Zukunft die Betriebssysteme viel mehr Kerne unterstützen können, macht das überhaupt Sinn, steigt nicht die Verlustleistung in der Kernverwaltung so an, dass der weitere Zugewinn zu klein wird?

Parallel werden wir vermutlich immer mehr RAM zu immer besseren Preisen bekommen. Kombiniert man das mit dem generellen Trend zu 64-Bit-Architekturen, dann ist das eine wichtige Entwicklung. Applikationen können den im Prinzip nun unendlich großen Speicher besser zur Optimierung der Performance nutzen und die Abhängigkeit von der SAN-Performance senken. Das ist vermutlich deutlich wichtiger als die Erhöhung der Kernanzahl.

Aber trotzdem: betrachten wir die Entwicklung der letzten 30 Jahre, dann würden Rechenzentren der 70er Jahre heute in einen kleinen Teil eines 19 Zoll Schrankes passen. Die permanente Verdopplung der Transistorzahl alle 18 Monate (Moores Law) muss diese Entwicklung beschleunigen (denken sie an die Verdopplung der Reiskörner auf dem Schachbrett, es fängt harmlos an, aber Verdopplung nimmt ab einer gewissen Zahl von Reiskörnern doch dramatische Züge an). Passen unsere heutigen Rechenzentren in 20 Jahren wieder in einen einzigen 19-Zoll-Schrank? Und was bedeutet das für die Übergangszeit, sagen wir für die nächsten 5 Jahren? Nun interpolieren Sie einmal die Leistung der ersten verfügbaren 11nm-Technik in einen heutigen Schrank und nehmen wir mal großzügig an, dass Intel diese Produktionstechnik in 3 Jahren sowohl im Griff hat als auch für Server-Chips benutzt (das ist vom Timing her durchaus unklar, da Intel mit 22nm und 11nm erst einmal andere Zielmärkte im Visier hat). Was bedeutet das für diesen Schrank sagen wir im Vergleich zu unserer Serverlandschaft aus dem Jahr 2000? Nun, wenn ein größeres Unternehmen im Jahr 2000 zwischen 1000 und 5000 physikalischer Server hatte, dann passen die mit der neuen Technik ohne Probleme in einen Schrank (Vorsicht, die Festplatten sind ins SAN ausgelegt und haben immer schon einen erheblichen Teil des benötigten Platzes eingenommen). Was bedeutet dann der Begriff „Virtuelle Infrastruktur“ eigentlich noch? Wandern dann virtuelle Maschinen überhaupt noch außerhalb des Schrankes?

Parallel entwickelt sich SAN-Technik geradezu rasant weiter. Die neue 10.000-Euro-Einstiegsklasse erreicht ein Leistungsniveau, für das man noch vor wenigen Jahren den 10-fachen Betrag und mehr gezahlt hätte. Der Wettbewerb konzentriert sich auch immer mehr auf diesen Einstiegsbereich. Anders formuliert: SAN-Technologie wird auch für kleine und mittlere Unternehmen die Normalität werden. Und SAN-Technologie ist schon lange nicht mehr auf große Datenbank-Anwendungen begrenzt. Sie macht auch für normale File-Server-Anwendungen durchaus Sinn. Was bedeutet das? Nun, wir konzentrieren Speicher immer stärker. Parallel erhöht SSD-Technik den Multiusergrad auch der Einstiegs-Klasse. Kombiniert mit Caching und immer größeren Caches (siehe 11nm-Technik) kommen wir in Leistungsklassen, die bisher undenkbar waren. Auch auf der Server-Seite können SSDs als Caches in Zukunft eine Rolle spielen. Dies ergibt ein sehr gemischtes Bild für die notwendige Infrastruktur zwischen Servern und SANs. Die Zahl der SANs steigt, ihre Leistung steigt, also auch ihre Anbindungs-Leistung, aber eventuell sinken Anforderungen auf der Server-Seite. Dafür generiert ein Multi-Tiering zwischen SANs eventuell wieder neue Anforderungen. Zumindest, wenn nicht FC zum Einsatz kommt.

Damit sind wir bei der leidigen FCoE und FC-Diskussion, die durch die Einführung des 16 Gbit FC natürlich unvermeidlich neuen Nährboden erhalten hat. Nun zum einen ist die Diskussion zunehmend unwichtig, da auf der SAN-Seite der klare Trend zur Unterstützung beider Verfahren existiert. Zum anderen muss aus meiner Sicht eher die Frage gestellt werden, welche Zukunftsbedeutung iSCSI und (p)NFS haben werden. Die Masse unseres Speichers ist File-Speicher und nicht Blockspeicher. Muss die iSCSI und NFS-Diskussion nicht neu aufgelegt werden?

Damit sind wir bei den Netzwerk-Infrastrukturen. Die Teilnehmer mehrerer ComConsult-Kongresse wurden in den letzten zwei Jahren mit der Diskussion der neuen Standards erbarmungslos gequält (geht leider nicht anders, die Tücken liegen in den Details der neuen Standards, sorry J ). Die Bedarfslage ist weiterhin konfus und die Befürworter und Gegner stehen sich wie immer in der Geschichte des LAN erbittert gegenüber.

Das Kernargument der Gegner der neuen Verfahren ist klar: Wir sollten wie immer auf den ganzen Schnickschnack verzichten (das Gelump abschalten wie Walter Röhrl zu sagen pflegte, wenn er über die Entwicklung im Automobilbereich sprach) und einfach genügend Kapazität einplanen. Sprich Multi-10-Gigabit Netzwerke in Parallelschaltung mit TRILL oder SPB bieten so viel Kapazität, dass man eigentlich gar nicht mehr braucht. Na ja, zumindest bräuchte man dann ja schon mal einen der neuen Standards, auch aus der Sicht der Gegner der neuen Standards.

Die Befürworter der neuen Standards sehen naturgemäß einen hohen Bedarf. Ihre Argumente sind:

  • FCoE geht nicht ohne DCB mit allen darin enthaltenen Variationen
  • Gerade die Einbindung von Speicher-Systemen generiert so hohe Lastspitzen und Summenlasten, dass wir den Verkehr besser als bisher steuern müssen
  • Die Konzentration von Servern in immer weniger Schränken erhöht die Punktlasten und führt zu stärkeren Schwankungen als bisher
  • Gerade im RZ  müssen die Netzwerke Virtualisierungs-bewusst sein, dies geht mit den „alten“ Standards gar nicht. An einer Mindestmenge neuer Standards zumindest zur Integration virtueller Systeme kommen wir gar nicht vorbei
  • Latenz wird in Zukunft ein wichtiger Planungsparameter, da immer mehr Applikationen ins RZ kommen, die von sehr kleinen Latenzwerten profitieren (auch außerhalb des Finanzmarktes?), wir brauchen also Verfahren, die uns Maximal-Latenzwerte garantieren

Damit noch nicht genug, liegt auch im Virtualisierungsmarkt noch weiteres Potenzial für Ärger, zumindest aus der Sicht der Infrastrukturbetreiber. Speziell High Availability und Desaster Recovery sind Themen, die immer wieder Diskussionen über Bandbreiten in Kombination mit ausgedehnten Layer-2-Strukturen aufkommen lassen. Da auch die Virtualisierungshersteller sich weiter entwickeln müssen, ist gerade dieser Markt eine sehr wahrscheinliche Richtung der Entwicklung. Geht HA über den bisherigen einen Kern hinaus, kommen schnell völlig neue Anforderungen ins Spiel.

Betrachten wir das Gesamtbild der Situation im Rechenzentrum, dann ist das eine sehr komplexe Lage. Das Kernproblem ist, dass die Entscheidung nicht in den Einzeltechnologie-Bereichen fallen kann. Wo immer der Weg hingeht, er muss als Gesamtweg im Sinne eines integrierten Applikation-Server-SAN-Netzwerk-Weges gegangen werden. In dieser Gesamtsicht müssen die kritischen Elemente in den einzelnen Technologie-Bereichen identifiziert werden und mögliche Sackgassen aufgezeigt werden.

In diesem Sinne ist die Antwort auf die in der Überschrift gestellte Frage klar: Wir brauchen ein Redesign, aber nicht in Form eines Mischmasches aus technischen Einzelprojekten. Wir brauchen ein Redesign der Gesamt-Architektur, die wir in Zukunft im Rechenzentrum umsetzen wollen.

zugeordnete Kategorien: Data Center, LAN, Virtualisierung
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.