HPE-Chef Marcel Borgo 11.05.2016, 14:05 Uhr

Die IT-Infrastruktur der Zukunft - schnell, skalierbar und unabhängig

Schnelligkeit, Skalierbarkeit und Plattform-Unabhängigkeit sind die neuen Leitwerte in der Welt der digitalen Wertschöpfung. Dafür wurden traditionelle Rechenzentren aber nicht geschaffen. HPE-Chef Marcel Borgo skizziert die neue leistungsfähigere 'Composable Infrastructure'.
Unternehmen müssen heute jederzeit in der Lage sein, ihre Ideen schneller als die Konkurrenz in Mehrwert umzusetzen. Während die IT bislang dazu diente, bestehende Geschäftsprozesse zu automatisieren, etabliert sich seit einigen Jahren ein neues Modell: IT-Anwendungen, die Umsatz und Gewinn direkt beeinflussen, nah am Kunden und agil entwickelt sowie mit hohem Tempo ausrollt werden. Im Unterschied zu klassischen IT-Infrastrukturen basieren sie auf Cloud, Big Data und mobilen Technologien. Die Transformationstreiber im Rechenzentrum heissen seit Jahren: Virtualisierung, Konvergenz und Cloud Computing. Sie sind angetreten, die schwerfällige, fragmentierte und teure IT-Infrastruktur in einen geschmeidigen Pool von Infrastruktur-Ressourcen zu verwandeln, der nach Bedarf angezapft werden kann. Als Folge davon ist die IT-Infrastruktur heute durch eine Reihe von Entwicklungen geprägt, die allesamt umwälzenden Charakter haben, andererseits nicht auf einen gemeinsamen Nenner zu bringen sind.

Entkoppeln und Koppeln

Die offensichtlichste dieser Entwicklungen ist die Entkopplung der Software von der Hardware. Sie schickt sich an – zehn Jahre nach Beginn des Siegeszugs der Server-Virtualisierung – als „Software Defined Anything“ oder kurz „SDx“ auf das gesamte Rechenzentrum überzugreifen. In eine ganz ähnliche Richtung wirkt sich der immer grösser werdende Einfluss der Cloud-Service-Provider mit ihren „Hyperscale“-Architekturen aus. Diese Rechenzentren sind darauf ausgelegt, sich praktisch beliebig hoch ausbauen – also „hyperskalieren“ – zu lassen. Während hier also Entkopplung als Leitmotiv dient, ist das Grundprinzip eines weiteren disruptiven Trends das genaue Gegenteil, die Kopplung. Gemeint sind vorintegrierte und für spezifische Einsatzzwecke optimierte Komplettsysteme aus Server, Storage, Netzwerk und Anwendungen – Blocksysteme, Integrated Systems oder Converged Systems genannt. Nächste Seite: Herausforderung IoT

Herausforderung: Internet der Dinge

Zu dieser Mischung gesellt sich nun ein weiterer Megatrend: das Internet der Dinge. Dabei werden Dinge – von der Sportsocke bis zur Flugzeugturbine – zum Zweck allgegenwärtigen Datenaustauschs vernetzt. Das stellt dramatisch höhere Anforderungen an das Rechenzentrum, zumal die geforderten Berechnungen oft in Echtzeit stattfinden müssen. Um nur ein Beispiel zu nennen: alleine die Turbine eines Düsenflugzeugs produziert rund 1 Terabyte Daten pro Flug. Hinsichtlich der Auswirkungen auf die IT-Infrastruktur ist das Internet der Dinge also keineswegs mit den anderen genannten Megatrends auf einen Nenner zu bringen. Während beispielsweise SDx und Hyperscale-Computing mit einer Standardisierung und Verbilligung der Hardware einhergehen, wird das Internet der Dinge komplett neue Ansätze bei der Physik der IT-Hardware erfordern.

SDx und Konvergenz

Die Architektur von Hewlett Packard Enterprise (HPE) für die Umsetzung einer solchen bimodalen IT nennt sich „Composable Infrastructure“. Sie basiert auf drei wesentlichen Prinzipien:
  • 1. Die „Composable Infrastructure API“ bietet eine einheitliche Schnittstelle (RESTful API), um die Logik jedes Infrastrukturelements zu abstrahieren. Dies ermöglicht eine einfache und standardisierte Integration von Compute-, Storage- und Netzwerkressourcen für spezifische Applikationsanforderungen.
  • 2. Für die wechselnden Anforderungen der Applikationen werden die einzelnen Blöcke nach Bedarf kombiniert, dekomponiert und rekombiniert.
  • 3. Ein Template-basiertes, automatisiertes Management erlaubt eine echte programmatische Kontrolle, Steuerung und „Selbstheilung“ der Infrastruktur.
Während konvergente Infrastrukturen heterogene System-Domänen zu einem homogenen Gesamtsystem zusammenfügen, schafft die Composable Infrastructure mittels Disaggregation die Voraussetzung für flexible Neukombinationen. Damit sind Firmen in die Lage, auf ihre interne IT-Infrastruktur wie auf ein Software-Programm zuzugreifen, ohne dass dazu eine detaillierte Kenntnis der unterliegenden physikalischen Elemente vorhanden sein muss. Nächste Seite: HPEs neue Composable Infrastructure

Composable Infrastructure

In den nächsten Jahren wird HPE die Composable Infrastructure in mehreren Phasen vorantreiben. Der nächste Meilenstein ist der programmatische Zugriff auf alle IT-Infrastruktur-Ressourcen, seien sie physisch, virtuell, containerisiert oder in der Cloud. In Phase drei werden durchgängige Prozesse für Continuous Delivery unterstützt. Jenseits von Moore’s Law hat sich die Prozessorleistung in den letzten Jahren zwar alle zwölf bis 24 Monate verdoppelt, bis zu Intels moderner Core-i-Prozessorgeneration. Doch das massenhafte Aufkommen an Echtzeitdaten, das mit dem Internet der Dinge zu erwarten ist, wird die Leistungskraft heutiger Computer übersteigen. Die geforderte Echtzeitverarbeitung kaum vorstellbarer Datenmengen ist mit herkömmlicher Technik nicht zu erbringen – allein die Speicherzugriffe würden viel zu viel Zeit in Anspruch nehmen, muss doch ein herkömmliches OS viele Daten auf Festplatte oder SSD auslagern. Angesichts der riesigen Datenmengen ist ausserdem das etwa bei Sensoren übliche Verfahren, per Machine-to-Machine-Kommunikation über Mobilfunk in bestimmten Abständen Statusmeldungen zu senden, nicht zukunftsfähig: Die Flut der Statusmeldungen würde die Funkbandbreite überlasten. Notwendig wird somit eine Auswertung der Statusmeldungen vor Ort, sodass ausschliesslich aufbereitete und möglichst schon vorab aggregierte Informationen zu übertragen sind. Gebraucht werden also Chips, die selbst in kleinsten Sensoren Platz finden. Denn das Internet der Dinge muss ein Internet der intelligenten Dinge sein – und diese Dinge müssen oft über sehr hohe Rechenleistung verfügen.

Neue Rechnerarchitektur

Damit ist das Ende der billigen, beliebig austauschbaren Hardware eingeläutet. Denn ohne eine neue Computerarchitektur gleicht das Internet der Dinge einem Sportwagen, der statt auf der linken Autobahnspur auf einem Feldweg fahren muss: eigentlich High-Tech, aber praxisfern und kaum von Nutzen. Das Internet der Dinge erzwingt langfristig nichts weniger als eine Revolution des Computings. Deshalb arbeitet HPE in Phase vier an einer grundlegend neuen Computerarchitektur: auch bekannt unter 'The Machine'. (mkur)



Das könnte Sie auch interessieren