Virtualisierung der Business-IT 13.08.2015, 16:04 Uhr

Experten und ihre Meinung

Vom Server bis zum Netzwerk - Virtualisierungstechniken erobern immer mehr Bereiche. Geht es nach den grossen Anbietern, arbeitet die gesamte Business-IT bald frei von Herstellerzwängen.
Wer heute die IT-Landschaft eines beliebigen Unternehmens begutachtet, der wird dort mit grösster Wahrscheinlichkeit mehrere, ganz unterschiedliche Virtualisierungstechniken im Einsatz finden. Dabei ist es ganz gleich, ob es sich um ein kleines, ein mittelständisches oder ein grosses Unternehmen handelt: Virtualisierung findet auf sehr vielen Ebenen und in mindestens ebenso vielen Unternehmensbereichen statt.  Das scheint auch nachvollziehbar, verspricht Virtualisierung doch seit Jahren eine maximal effiziente Auslastung der Hardware sowie hochgradige Flexibilität bei der Administration und Bereitstellung von IT-Systemen. Glaubt man den Schwergewichten im Marktsegment Virtualisierung – zu denen neben der EMC-Tochter Vmware als Spezialist für Virtualisierungssoftware auch Unternehmen wie Citrix und Microsoft zählen –, so wird die Virtualisierung zukünftig noch viel tiefer und viel breiter in sämtliche Bereiche der IT vordringen. «Computerworld» wirft deshalb einen detaillierten Blick auf diese Entwicklungen und zeigt auf, wie weit die Virtualisierung die Business-IT schon heute durchdrungen hat und wie sie sie in naher Zukunft beeinflussen wird. Von einigen Firmen, zu deren Geschäftsfeld Virtualisierungslösungen gehören, wollten wir zudem wissen, wie sie die aktuelle und die zukünftige Entwicklung dieser populären Sparte der IT sehen. Deshalb haben wir mit Vertretern von Vmware, Microsoft, Citrix, Red Hat und dem Noch-Newcomer Nutanix gesprochen und ihnen grundsätzliche Fragen gestellt. Ausserdem baten wir sie, einen Blick in die viel zitierte Kristallkugel zu werfen und ihre fachliche Einschätzung zur Virtualisierung im Allgemeinen, zu deren einzelnen Strömungen im Speziellen sowie zu den möglichen Auswirkungen auf die Lösungen in der Unternehmens-IT abzugeben. Lesen Sie auf der nächsten Seite: «Die allgegenwärtige Virtualisierung der Hardware» Die allgegenwärtige Virtualisierung der Hardware Wer mit erfahrenen IT-Fachleuten spricht, der bekommt sehr häufig zu hören, die Virtualisierung von Hardware sei mitnichten eine neue Technik. Und das ist auch vollkommen richtig. Schon in den 1960er- und 1970er-Jahren setzten die Ingenieure bei IBM auf ihren Grossrechnern Virtualisierungsansätze dazu ein, die im Vergleich zu heute recht schwachen Prozessoren der Systeme besser auszulasten. Mit Gründung der Firma Vmware, deren Übernahme durch den Speicherriesen EMC und der stetig steigenden Verbreitung dieser Techniken wurde Virtualisierung immer populärer. Mittlerweile hat sie sich zu einem Thema entwickelt, das fast alle IT-Bereiche beeinflusst – im privaten ebenso wie improfessionellen Umfeld. Auch wenn die meisten Anwender und viele IT-Fachleute beim Thema Virtualisierung wahrscheinlich zunächst an die Server-Virtualisierung und damit an teure und grosse Rechenzentren denken, so sind Virtualisierungstechniken doch deutlich weiter verbreitet. Immerhin können sie auf jedem Level eingesetzt werden, sei es auf der Ebene der Hardware, der Software oder auch des Desktops oder Netzwerks. Ausgehend von der reinen Systemvirtualisierung haben sich auf diese Weise mehrere Teilbereiche herausgebildet, die in ihrer Gesamtheit so etwas wie einen Megatrend darstellen. So arbeiten beispielsweise viele IT-Abteilungen intensiv mit den verschiedensten Ausprägungen der Storage-Virtualisierung, auch als Software-defined Storage (SDS) bezeichnet, und auch die Desktop-Virtualisierung ist nach wie vor ein Thema, Stichwort Virtual Desktop Infrastructure oder kurz «VDI». Neuer - und mindestens ebenso spannend - ist das Thema Netzwerk-Virtualisierung: Bei dieser Technik wird ein komplettes Netzwerk virtuell in Software abgebildet und betrieben. Auch hier heben die Anbieter entsprechender Lösungen - ähnlich wie bei fast allen anderen Virtualisierungstechniken - die dadurch entstehende Unabhängigkeit von der darunterliegenden Hardware als einen der entscheidenden Vorteile eines solchen Ansatzes hervor. Lesen Sie auf der nächsten Seite: «Der Hypervisor und virtuelle digitale Arbeitsplätze» Der Hypervisor Das technologische Herzstück der Server- und Hardware-Virtualisierung ist der Hypervisor, der die Hardware-Ressourcen den einzelnen virtuellen Maschinen zur Verfügung stellt. Aufgrund der vielen Vorteile , die diese Technik bietet, verbreitete sich die Virtualisierung zunächst insbesondere in den Server-Räumen und Rechenzentren von Unternehmen und Institutionen. Der grösste Vorteil ist sicher die Möglichkeit, die vorhandene Hardware deutlich besser auszulasten. Aber auch die Fähigkeit, virtuelle Maschinen im laufenden Betrieb von einem Hypervisor-Host auf einen anderen zu verschieben sowie die Tatsache, dass es sich bei der virtualisierten Maschine stets um die exakt identische «gedachte Hardware» handelt, erlauben einen flexiblen Einsatz im Unternehmen. Die Flexibilität, die das Konzept der Virtualisierung mit sich bringt, hat dazu geführt, dass immer mehr Bereiche der IT mittels verschiedener Abstraktionsschichten von der darunterliegenden Hardware abgekoppelt betrieben werden. Letztlich bleibt aber der Hypervisor der Geburtshelfer vieler Cloud-Ideen und ist auch aus diesem Grund weiterhin enorm wichtig. Virtuelle digitale Arbeitsplätze Virtuelle Desktops waren lange eines der beliebtesten Spielfelder in der IT. Ging es um Virtualisierung, so fiel früher oder später der Begriff «Virtual Desktop Infrastructure» (VDI). Mittlerweile ist es etwas ruhiger um diese Form der Virtualisierung geworden. Christian Gehring, Manager Systems Engineering Central & Eastern Europe bei Vmware, bestätigt, dass viele Vmware-Kunden über langjährige Erfahrungen mit virtuellen Desktops in unterschiedlichen Anwendungsszenarien verfügen. Weiter führt Gehring aus: «Der grösste Teil der Unternehmen erfasst die zahlreichen Möglichkeiten jedoch noch nicht und hat mit den klassischen Herausforderungen bei der Verwaltung physikalischer Endgeräte oder bei unflexiblen Terminal-Server-Umgebungen (RDS) zu kämpfen. In den kommenden Jahren wird auch hier die Cloud Einzug halten, sodass Desktops über die Cloud bereitgestellt werden.» «RDS» steht für «Remote Desktop Services». Peter Goldbrunner, Country Manager Germany bei Citrix, sieht «VDI» lediglich als ein Einsatzszenario an, in dem ein Betriebssystem serverseitig für bestimmte User, Rollen und Anforderungen bereitgestellt wird. Er hebt die Vorteile der Anwendungs-Virtualisierung gegenüber der Virtualisierung des kompletten Desktops hervor: «In einer mobilen Welt, in der die Betriebssysteme etwas in den Hintergrund treten und Anwendungen sowie mobile Apps im Vordergrund stehen, ist die Anwendungs-Virtualisierung der Kern eines Software-defined Workplace. Dieser Software-defined Workplace beziehungsweise digitale Arbeitsplatz ist heute eines der Kernthemen bei sehr vielen Kunden und ein Top-Thema im Management.» Lars Herrmann, General Manager Red Hat Enterprise Linux and Red Hat Enterprise Virtualization, ergänzt: «Wir beobachten einige Hürden bei der Nutzererfahrung, den Speicherkosten, den Bandbreiten und der Verfügbarkeit: Diese Aspekte können den Einsatz des Konzepts behindern. Aber es gibt natürlich auch erfolgreiche Anwendungen in hochstandardisierten und statischen Umgebungen.» Lesen Sie auf der nächsten Seite: «Virtualisierung von Anwendungen und Netzwerken» Virtualisierung von Anwendungen und Netzwerken Die Anwendungs-Virtualisierung ist im Vergleich zu den zuvor genannten Techniken eher eine Art Zwischenschicht zwischen einer Anwendung und den Ressourcen des Betriebssystems. Ziel der Technik ist es, die Anwendungen vom Betriebssystem selbst zu trennen, dabei aber den Benutzern den Betrieb über eine einheitliche Bedienoberfläche weiterhin zu ermöglichen. Während der Laufzeit virtualisiert die Zwischenschicht ein vom Betriebssystem abgetrenntes Dateisystem und verhindert so beispielsweise den direkten Zugriff. Sehr häufig fällt hier der Begriff «Sandboxing». Die Isolierung der Anwendung vom Host-Betriebssystem verhindert beispielsweise unerwünschte Interaktionen, etwa mit dem Ziel, mehr Betriebssicherheit oder eine flexiblere Kompatibilität zu gewährleisten. In diesem Kontext beschreibt der Begriff «virtualisiert» also die Isolierung der Anwendung vom darunterliegenden Betriebssystem, während sich der Begriff im Kontext mit virtuellen Maschinen mehr auf die Abstraktion von der darunterliegenden Hardware-Schicht bezieht. Das «Sandboxing» von Applikationen wird sicher auch weiterhin ein wichtiges Thema bleiben, da mit dieser Technik eine gute Abschirmung der Anwendungen hinsichtlich der Sicherheit erfolgen kann. Insbesondere auf der mobilen Plattform «Android» nutzen «Mobile-Application-Management»- und «Mobile-Device-Management»-Systeme (MAM beziehungsweise MDM) die «Sandboxing»-Technik, um beispielsweise geschäftlich genutzte Programme effizient von den Privatdaten der Nutzer zu trennen. Gleichzeitig hat Docker die Container-Virtualisierung salonfähig gemacht und selbst Microsoft will mit der nächsten Version seines Server-Betriebssystem die Technik unterstützen. Netzwerke und Speichersysteme Zu den aktuellen Themen rund um die Virtualisierung gehört auch das durch Software definierte Netzwerk, das «Software-defined Networking» (SDN). Dabei wird ein komplettes Netzwerk virtuell in Software abgebildet und betrieben. Auch hier wird von Anbieterseite die damit verbundene Unabhängigkeit von der darunterliegenden Hardware als einer der grossen Vorzüge dargestellt. Das mag sich zunächst einfach anhören. Doch gerade die umfassende Virtualisierung des kompletten Netzwerks samt Management und die Überführung solcher Standardkomponenten wie Switches in eine virtuelle Version erfordern einen nicht zu unterschätzenden Aufwand. Grundsätzlich sollen dann letztlich aber auch die Netzwerkkomponenten schneller und flexibler auf die sich ständig verändernden Konfigurationen und beliebig zuteilbaren virtuellen Ressourcen in modernen IT-Umgebungen reagieren können. Damit ist das «Software-defined-Network» zu Recht eines der wichtigsten Virtualisierungsthemen, das IT-Verantwortliche und Administratoren in den kommenden Monaten und Jahren noch intensiv beschäftigen dürfte. Bei den Speichersystemen ist es hingegen die Entkoppelung von Server- und Storage-Komponenten, die den Kern der sogenannten Storage-Virtualisierung ausmacht. Der grosse Vorteil für die Administration besteht darin, dass durch diese Virtualisierungsschicht die Notwendigkeit entfällt, stets ausschliesslich die Storage-Systeme eines einzigen Herstellers nutzen zu müssen. So lässt sich beispielsweise bei der Spiegelung von Rechnern das primäre System auf Basis des gewählten Herstellers mit entsprechend guten Leistungsdaten aufbauen, während der Sicherungsspiegel auf einem kostengünstigen System angelegt wird. Die Abstraktion von Speichersystemen durch eine Software-Schicht gehört zu den Virtualisierungstechniken, die bereits weit verbreitet sind. Hier geht der Trend deutlich in Richtung Standardisierung der Techniken, um die Abhängigkeiten von einzelnen Storage-Anbietern zu vermeiden oder wenigstens zu verringern. Lesen Sie auf der nächsten Seite: «Hyperkonvergenz und Datacenter in a Box» Hyperkonvergenz und «Datacenter in a Box» Immer wieder ist neuerdings von Hyperkonvergenz die Rede. Doch was verbirgt sich tatsächlich dahinter? Von fast allen Anbietern wird die Hyperkonvergenz-Technik zwar lautstark propagiert, viele Anwender in den Unternehmen hinterlässt sie allerdings ziemlich ratlos, weil Hyperkonvergenz verschieden interpretiert werden kann. Christian Gehring von Vmware fasst Hyperkonvergenz zum Beispiel prägnant so zusammen: «Hyperkonvergente Lösungen kombinieren Rechenleistung, Netzwerk und Storage in nur einer Appliance.» Zudem hebt er einen weiteren Unterschied zwischen hyperkonvergenten und normalen IT-Infrastrukturen als charakteristisch hervor: «Eine hyperkonvergente Infrastruktur zeichnet sich dadurch aus, dass auch eine Virtualisierungssoftware enthalten ist.» Suda Srinivasan ist als Director of Product Marketing bei der amerikanischen Firma Nutanix tätig, deren Geschäft sich besonders auf solche hyperkonvergenten Lösungen konzentriert. Die Firma war nicht unwesentlich daran beteiligt, den Begriff «Datacenter in a Box» zu prägen. Mit «Datacenter in a Box» ist gemeint, dass Server, Storage - bestehend aus Festplatten und SSDs - sowie eine Virtualisierungslösung in einer einzigen Architektur zusammengeführt und über dieselbe Bedienoberfläche konfiguriert und gesteuert werden. Suda Srinivasan von Nutanix legt bei seiner Definition von Hyperkonvergenz Wert darauf, festzustellen, dass die integrierte Storage-Komponente ein besonders wichtiger Teil eines derartigen Konzepts ist: «Ein hyperkonvergentes System integriert von sich aus die Rechenleistung und den Speicherplatz (Storage) in einem einzigen «x86»-Server, der in «Scale-Out Clustern» zum Einsatz kommt. «Scale-Out Cluster» sind eine Erweiterung von Server-Architekturen, die dazu dient, die Expansion durch horizontale Skalierung zu ermöglichen. Zudem hebt Srinivasan hervor, durch den Einsatz dieser Technik könne sowohl der Raum- als auch der Energiebedarf deutlich reduziert werden, was wiederum die Komplexität von Storage-Architekturen erheblich verringere und somit zu einer direkten Kosteneinsparung führe. Auch Anna Notholt, Cloud Platform Lead, Cloud & Enterprise BG bei Microsoft Deutschland, betont bei ihrer Hyperkonvergenz-Einschätzung die sehr enge, softwarebasierte Integration von Computing, Storage und Netzwerkressourcen und die damit einhergehende einheitliche Verwaltung dieser Ressourcen. Zudem unterstreicht sie den Cloud-Aspekt dieses Ansatzes: «Durch den Einsatz dieser Lösungen, wie zum Beispiel dem Cloud Platform System von Microsoft und Dell, können Unternehmen eine Cloud im eigenen Rechenzentrum betreiben.» Peter Goldbrunner von Citrix versteht Hyperkonvergenz wiederum als unterschiedliche Teile einer Infrastruktur bestehend aus Hardware und Software, die dann in einem Gehäuse oder Block verwaltet werden kann. Er hebt ebenfalls hervor, dass die Intelligenz beziehungsweise Logik einer derartigen Lösung aus der Software kommt. Lars Herrmann von Red Hat setzt den Schwerpunkt etwas anders, er sieht ihn in der Fähigkeit der hyperkonvergenten Systeme, durch die Entwicklung neuer, eng verknüpfter Plattformen mit hochintegrierten Rechner-, Speicher- und Netzwerkkomponenten den Schritt hin zu einem «Software-defined Datacenter». Weiter führt er aus: «Hyperkonvergenz vereinfacht ausserdem die Skalierbarkeit, die oft schwer in traditionellen Infrastrukturen mit unabhängigen Server-, Storage- und Netzwerkkomponenten zu realisieren ist.» Lesen Sie auf der nächsten Seite: «Ein kritischer Blick auf den Virtualisierungs-Hype» Ein kritischer Blick auf den Virtualisierungs-Hype Der Hype, der in den vergangenen Jahren rund um die Virtualisierung entstanden ist, fordert eine differenzierte Betrachtung geradezu heraus. Wer den Ausführungen der Analysten und Firmenvertretern folgt, kann schnell den Eindruck gewinnen, ohne Virtualisierung sei im Unternehmen keine IT mehr möglich. Die Vorteile der Virtualisierung scheinen immens zu sein: verlockende Anwendungsszenarien wie hyperdynamische Rechenzentren, flexible Ressourcen-Zuweisung, Automatisierungsgrade bei der Einrichtung von Umgebungen oder Arbeitsplätzen und bei Bedarf eine cloudbasierte Variante mit Byte-genauer Abrechnung. Was kann daran schlecht sein? Während bei einer klassischen Installation eines Servers auf einer Hardware das «Sizing» in der Regel über ausreichend und manchmal zu viele Ressourcen verfügt, zeigt die Praxis, dass viele Administratoren dazu neigen, ihre Virtualisierungs-Hosts über Gebühr mit zu vielen Maschinen zu strapazieren. Eine CPU mit acht Kernen und 32 Gigabyte Arbeitsspeicher kann und wird im Produktivbetrieb niemals vier ausgewachsene Server-Systeme einigermassen performant betreiben können. Eine derart starke Überlastung zieht aber letztlich träge Reaktionszeiten nach sich - und diese wiederum führen zu einer schlechten User-Experience. Vmware, ESX und Co. laden die IT-ler förmlich dazu ein, mehr aus den Maschinen herausquetschen zu wollen, als es ihnen die Vernunft gebieten würde. Kommt dann noch falsche Sparsamkeit hinzu, wenn beispielsweise zu wenige «Network Interface Controller» (NIC) im Host-System zur Verfügung stehen, dann teilen sich am Ende ein Mail-Server, ein Datenbanksystem, ein Backup-Rechner und zwei Terminal-Server eine einzelne Netzwerkkarte für den gesamten Netzwerkverkehr. Das kann nicht gutgehen. Hier gilt die Regel: Server-Virtualisierung vermag zwar die Stromkosten zu senken und die Hardware-Auslastung zu optimieren, jedoch nur in einem vertretbaren Rahmen, der der Situation angepasst sein muss. Weiterhin ist mancher Virtualisierungstrend auch gar nicht so neu und markant, wie es auf den ersten Blick erscheinen mag. Beispiel: Storage-Virtualisierung. Die Storage-Virtualisierung ist als Schlagwort nach wie vor sehr populär. Immerhin verspricht diese Technik, dass alles viel einfacher wird, wenn die Storage-Systeme in einer einzigen Struktur abstrahiert genutzt werden können. Doch diese Art der Flexibilität wurde – vom Standpunkt des reinen Dateizugriffs aus betrachtet – von Techniken wie dem «Distributed File System» (DFS) schon vor Jahren mühelos erreicht. Auch bei «DFS» existiert eine Abstraktionsschicht, mit deren Hilfe die darunterliegenden File-Server kaschiert und somit beliebig austauschbar gemacht werden. Spezielle Softwareprodukte wie die Lösungen von Datacore bieten ebenfalls seit Jahren eine ähnliche Technik für den blockbasierten Zugriff auf das Dateisystem an, die zunächst nur noch nicht als Storage-Virtualisierung bezeichnet wurde. Ausserdem erlauben Techniken wie «iSCSI» und «Fibre Channel» eine sehr hohe Dynamik und Leistung, die allerdings bei falscher Konfiguration in den Software-Abstraktionsschichten ebenso schnell wieder ausgebremst werden. Wer sich dann noch die vermehrt ausgebauten Abstraktionsschichten in der professionellen IT genauer ansieht, der erreicht unweigerlich das Netzwerk und den virtuellen Desktop. Gerade in Hinblick auf diese Bereiche sollten IT-Verantwortliche und Administratoren einen wichtigen Aspekt nicht ausser Acht lassen. Durch derartige Techniken entsteht eine deutlich höhere Komplexität, die sich auf das Tagesgeschäft der IT-Mitarbeiter auswirkt. Die zunehmende Unabhängigkeit von Hardware durch Virtualisierungstechniken ist im Prinzip eine gute Sache. Auf der anderen Seite ist es für den Systemverwalter dank dieser Techniken heute kaum noch möglich, die Verquickungen der unterschiedlichen Systeme und deren Folgen für virtualisierte Einzelsysteme zu überblicken. Fällt beispielsweise eine Platte in einem «RAID»-Verbund im Käfig eines herkömmlichen Datei-Servers aus, so kann der IT-Mitarbeiter schnell herausfinden, welches der angeschlossenen Systeme in Gefahr ist. In einem Storage-Verbund hingegen, der etwa über ein «Software-defined Network» mit mehreren virtuellen «LUNs» auf acht dynamischen «ESX»-Hosts mit teilautomatisierter «Vmotion» angesprochen wird, fällt es selbst dem erfahrenen IT-Mann schwer, die Auswirkungen eines Kabel- oder Plattenausfalls auf den ersten Blick zu finden. Der steigende Grad der Virtualisierung verlangt von den IT-Mitarbeitern also, dass sie die Abstraktion der unterschiedlichen Schichten stets nachvollziehen können – was trotz der Unterstützung durch entsprechende Software-Tools in der Praxis oft genug schwierig ist. Fazit Unbestritten ist, dass die Virtualisierung eine technologische Triebfeder für die gesamte Branche bleibt. Noch vor 15 Jahren war es vollkommen undenkbar ein «Rechenzentrum to go» für ein paar Stunden und Tage einzurichten und produktiv zu verwenden. IT-Arbeitsplätze sollen und müssen heute anders funktionieren als vor ein paar Jahren. Virtualisierung, Techniken wie gehostete Desktops und die Möglichkeit, Netzwerke flexibel zu konfigurieren, werden die IT und damit die Arbeitswelt weiterhin entscheidend beeinflussen und prägen. Virtualisierung ist Gegenwart und Zukunft professioneller IT. * Die Autoren schreiben für unsere Schwesterpublikation «com-magazin.de», wo der Artikel ursprünglich erschien. 


Das könnte Sie auch interessieren