Intel greift an: ist der RISC-Markt am Ende?

Kommentieren Drucken

Die letzten Quartalszahlen belegen weitere Marktgewinne für x86-Server, der Anteil der verkauften RISC-Systeme geht mehr und mehr zurück. Stehen HP, IBM und Oracle mit dem Rücken an der Wand und ist es nur noch eine Frage der Zeit, bis sie mit ihren RISC-Systemen aufgeben müssen?

Zur Beantwortung dieser Frage dreht sich alles um Verfügbarkeit und weniger um Leistung. 99,999% und bessere Verfügbarkeiten sind nur noch mit Hardware-Automatisierung in der Reaktion auf Störungen zu erreichen. Damit müssen alle Systemkomponenten wie CPU, DIMMs, Bussysteme, Buskarten und die gesamte I/O redundant ausgelegt sein und es muss Mechanismen für die Erkennung von Fehlern und die Ab- und Umschaltung von Komponenten geben. Für menschliche Interaktion bleibt keine Zeit, lediglich Hot-Swap-Eigenschafen für DIMMs und Buskarten zur Vermeidung einer Server-Abschaltung spielen noch eine Rolle in Bezug auf den menschlichen Eingriff.

Mit dem E7 hat Intel im letzten Jahr eine Server-CPU auf den Markt gebracht, die viele RAS-Eigenschaften (RAS= Reliability, Availability, Serviceability) des Itaniums übernommen hat. Intel greift damit direkt die etablierten RISC-Systeme an. Hardware-Redundanz mit Um-/Abschaltung defekter Busse, CPUs und DIMMs sind damit auch in den E7 x86-Servern vorhanden. Im Jahr 2013 wartet die Branche auf den großen Wurf durch Intel. Bisher hat Intel keine Server-CPU im 22nm-Prozess auf den Markt gebracht. Dafür soll 2013 der große Sprung eventuell sogar mit einer neuen Microarchitektur kommen. 3Gate-Transistoren werden aller Voraussicht nach eine neue Messlatte für den Stromverbrauch von Top-Servern setzen. Gleichzeitig wird die Frage diskutiert, was Intel mit den vielen zusätzlichen Transistoren des 22nm-Prozesses machen wird. Als sicher gilt eine Integration des PCI-Express in den CPU-Chip so wie es in der aktuellen 22nm-Desktop-CPU schon erfolgt ist. Aber geht Intel noch weiter? Denkbar wären vier anstelle von zwei Threads pro Core. Das würde die Lücke zu Oracle/Sun etwas schließen und eine bessere Eignung für hochparallele Anwendungen schaffen. Oder ist sogar die Zeit der Ablösung des PCI-Express gekommen? Seit längerer Zeit wird über eine neue I/O-Konstruktion mit einer Integration eines Netzwerk-Adapters und Switches in die CPU spekuliert. Das Problem dieses Konzepts ist, dass es nicht wirklich rund ist. Es erfordert einen Systemhersteller, der daraus eine sinnvolle Gesamtarchitektur macht. Aber vielleicht müssen wir darauf noch zwei oder drei Server-Generationen warten. Immerhin haben PCI-Express 3.0 und die zukünftige 4.0 Variante eine erhebliche Leistung mit sehr viel Flexibilität. Der Hauptnachteil ist, dass PCI-Express immer eine lokale Bustechnologie ist. Will man den Systembus weiter ausdehnen, um deutlich mehr CPUs oder weitere Peripherie zu integrieren, dann wäre der Wechsel auf eine neue Technologie angesagt.

Also wird 2013 das Ende des RISC-Marktes einläuten? Die Antwort ist aus meiner Sicht ein klares Jein. Für Anwendungen wie Cloud-Computing reichen x86-Server mit Virtualisierung, Life Migration zwischen Servern und High Availability aus. Hier findet die Redundanz auf Server-Ebene statt und für die meisten Fälle ist das ausreichend. Es gibt also begründeten Anlass, diesen Markt für RISC-Lösungen als verloren anzusehen. Vermutlich wird hier das Thema Performance/Watt, das mit den 22nm-CPUs noch einmal an Marktbedeutung gewinnen wird, einen weiteren Schub in Richtung x86-Server geben.

Für komplexere Datenbank- oder High Performance Computing-Anwendungen reicht das allerdings nicht aus. Intel hat gegenüber der RISC-Konkurrenz einen wesentlichen Nachteil: Hardware, Virtualisierung und Betriebssystem kommen von verschiedenen Herstellern. Eine Machine Check Architecture wie sie der E7 einführt ist ohne eine direkte Unterstützung dieser Eigenschaften im Betriebssystem oder auch der Applikation nutzlos. Abschaltung und Umschaltung von Hardware-Komponenten geht ohne Integration des Betriebssystems und der Anwendungen nicht. Die Serverhardware muss die Alarme und Schaltmechanismen zur Verfügung stellen. Aber die Hardware kann nicht entscheiden, ob und in wie weit ein Komponentenausfall eine Applikation gestört hat und ob ein Zurückgehen auf den letzten Snapshot erforderlich ist. Auch eine Veränderung der Bus- oder I/O-Architektur zu einer weiteren Verbesserung der Systemhardware müsste durch die Betriebssystemhersteller mitgetragen werden. Während der Linux-Markt in sich relativ flexibel ist, muss man bei der Bereitschaft Microsofts, speziell für diesen Markt Änderungen am Windows-Server durchzuführen, erhebliche Zweifel äußern. Microsoft sieht seinen Zukunftsmarkt eher bei Cloud-Lösungen als im HPC- und Datenbank-Bereich. Für diesen Zielmarkt haben HP, IBM und Oracle alle Karten in der Hand. Die komplette Kontrolle über Hardware, Virtualisierung und Betriebssystem und die spezielle Integration zu einem Gesamtsystem ist der entscheidende Vorteil. Noch eine Stufe weiter wird auch die Applikation in das ganze Konstrukt integriert. Dies ist ein Ansatz, den Oracle mit seiner Datenbank verfolgt. Leider gibt es keine dem Autor bekannten Analysen, in welchem Umfang dadurch die Verfügbarkeit in der täglichen Praxis tatsächlich gesteigert werden kann. Es gibt aber Untersuchungen von Google für seine Rechenzentren, die die Bedeutung von RAS-Eigenschaften speziell für Speicher-DIMMs bestätigt haben.

Es darf an dieser Stelle auch nicht vergessen werden, dass Hardware mehr als eine CPU ist. Bus- und I/O-Systeme spielen eine erhebliche Rolle für sowohl Leistung als auch Verfügbarkeit. So gut der PCI-Express inzwischen ist, er ist und bleibt ein Bussystem aus der Desktop-Welt und ist von Bussystemen wie IBM sie in seinen Top-Systemen einsetzt weit entfernt. Das Gesamtsystem muss stimmen. Damit stellt sich natürlich auch die Frage, ob vernetzte Lösungen mit Speicherzugriff über FCoE oder NFS jemals die Anforderungen von High-End-Lösungen erfüllen können. Zu viele Komponenten und Verfahren von zu vielen Herstellern kommen zusammen.

Und natürlich sehen auch HP, IBM und Oracle die Wettbewerbssituation und entwickeln ihre Lösungen speziell im Sinne kompletter Schrank-Lösungen weiter. Gerade im High-End-Markt kann man davon ausgehen, das ein Durchschnittsserver einer speziell getunten Plattform unterlegen ist. Wird das ausreichen? Das ist auch die Frage, ob sich UNIX als Betriebssystem weiterhin gegen Linux behaupten kann. Nach wie vor haben UNIX-Systeme wie HP-UX, AIX oder Solaris gegenüber Linux klare Vorteile im Tracen von Fehlersituationen und in der Menge der Feineinstellungen. Linux wird auch nie die Hardware-Integration dieser UNIX-Systeme erreichen können. Die zentrale Frage ist die des Mengengerüsts. Der RISC-Markt verliert scheibchenweise gegenüber x86 und je besser die Xeon-Systeme werden, desto mehr Markt geht verloren. Auch hat sich Virtualisierung in der x86-Welt aus den Anfängen einer Bastel-Lösung zu einer ernst zu nehmenden Technologie entwickelt. X86 kann somit fehlende Systemeigenschaften in der Virtualisierung ausgleichen (zum Beispiel Live-Migration), wenn auch nicht auf demselben Niveau wie in der RISC- oder speziell AIX-Welt, da die kleinste Einheit immer der Server bleibt. Da besteht das Risiko, dass RISC eine reine Nischenlösung für große Datenbank- und HPC-Portfolios wird. Wird das ausreichen, um den Entwicklungsaufwand in diese Produkte zu rechtfertigen? Können alle drei Hersteller im Markt bestehen? HP hat schon seine eigene CPU aufgegeben und damit auch einen Teil der Alleinstellungsmerkmale verloren. Über die Zukunft des Itanium-Prozessors wird mit freundlicher Hilfe von IBM und Oracle seit Jahren diskutiert. Wird HP also als erster aus diesem Markt ausscheiden? Ohne Frage sucht HP nach neuen Nischen. Das Projekt Moonshot zeigt eine Orientierung an hochparallelen Systemen wie sie bei Massendaten-Operationen im Web zum Beispiel zum Einsatz kommen. Moonshot ist klar nicht auf große Datenbank-Anwendungen im traditionellen Sinne ausgelegt. Aber kann HP alleine die dafür notwendige Firmware- und Betriebssystem-Umgebung wirklich stemmen? Moonshot wird abgesehen von speziellen Einzelfällen nur im Markt durchsetzbar sein, wenn die Zuweisung von Servern zu den Mikro-CPUs vollautomatisch erfolgt. Das Mengengerüst von tausenden kleinen Prozessoren kann nicht manuell verarbeitet werden. Das wird eine gewaltige Anstrengung von HP mit erheblichen Investitionen. Ist das HP-Management wirklich gewillt dieses Risiko zu tragen?

Und dann darf die Existenz der Mainframes nicht vergessen werden. IBM baut seine Marktbedeutung in diesem Segment klar aus. Werden HP und Oracle zwischen Mainframe und x86 zerrieben? Oder läuft es im High-End-Bereich auf einen Wettbewerb zwischen den beiden großen Datenbank-Anbietern IBM und Oracle zu?

Abschließend muss natürlich das Thema Cloud erwähnt werden. Auch wenn der Autor zu den Skeptikern im Bereich Cloud gehört, muss natürlich zur Kenntnis genommen werden, dass Cloud-Lösungen zumindest im Provider-Bereich an Bedeutung gewinnen. Ob Self-Provisioning in Private Clouds je eine wirtschaftliche und sinnvolle Lösung darstellen wird, bleibt abzuwarten. Aber die Cloud-Anbieter mit ihren Rechenzentren puschen natürlich eine bestimmte System-Architektur in den Markt. Dabei ist die Rolle des einzelnen Servers eher gering. Die ganze Architektur spielt mit der Verfügbarkeit beliebig vieler Server. Von daher konzentriert sich Redundanz in diesem Umfeld auf den Server als kleinste Einheit. Themen wie Microprocessor Partitioning, die im RISC-Bereich spannend sind, spielen hier einfach keine Rolle. Setzt sich diese Art von Architektur wirklich durch, dann nimmt auch der Bedarf nach leistungsfähigeren CPU-Systemen ab. Die Idee ist mehr die einer parallelen und verteilbaren Last. Dem steht gegenüber, dass nicht jede Art von Anwendung beliebig parallelisiert werden kann. Auch Webanwendungen müssen an irgendeiner Stelle schreibend auf eine Datenbank zugreifen, spätestens hier ist dann Schluss mit Parallelisierung. Ab einem bestimmten Grad an Parallelität wird der Aufwand zur Verwaltung der parallelen Komponenten höher als der Gewinn durch die Parallelisierung, sprich das System skaliert nicht mehr. Auch hier wird sich in den nächsten Jahren die Frage des Mengengerüsts stellen. Wie viele Anwendungen erfordern eher parallele Architekturen, wie viele sind eher monolithisch in ihrer Architektur. Beobachtet man die Entwicklung bei Intel, dann fällt natürlich auf, dass der Wettbewerb im Bereich der Cores und des Hauptspeichers stagniert. Zwar hat Intel die Zahl der Cores von 8 auf 10 erhöht, aber gemessen an Moores Law ist das Stagnation. Der verfügbare Hauptspeicher hat mit 2 bis 4 TB eine Größenordnung erreicht, die nur von sehr wenigen Kunden überhaupt genutzt wird. Das kann sich zwar nach der letzten Änderung im VMware-Lizenzmodell wieder ändern, aber insgesamt bleibt der Eindruck einer gewissen Stagnation bestehen. Mit großer Spannung muss deshalb die 22nm-Server-CPU im nächsten Jahr erwartet werden. Was wird Intel mit den vielen zusätzlichen Transistoren machen?

zugeordnete Kategorien: Endgeräte, LAN
zugeordnete Tags:

Sie fanden diesen Beitrag interessant? Sie können



Anmerkungen, Fragen, Kommentare, Lob und Kritik:

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

.