Virtualisierung 17.12.2007, 08:20 Uhr

Boom hält an

Virtualisierung mutiert vom Hype zur Realität. Hard- und Software wachsen immer weiter zusammen, es gibt Pakete für die Komplett--Virtualisierung und mehr virtuelle Intelligenz in den Netzwerken.
Virtualisierung ist der Trend der kommenden Jahre. Bereits setzt ein Drittel aller weltweiten Unternehmen Virtualisierungs-Tools für ihre x86-Server ein - bis ins Jahr 2009 wird sich ihre Zahl verdoppeln. Das geht aus jüngsten Analysen von Forrester Research hervor. Diese zeigen auch auf, dass Firmen, die bereits mit Virtualisierung arbeiten, derzeit durchschnittlich knapp ein Viertel ihrer Server virtuell konsolidiert haben. 2009 soll dieser Anteil 45 Prozent betragen. Ein Trend, den Marktforscherin Gartner bestätigt. Deren Analysen zufolge wird die Zahl der virtuell eingesetzten Geräte von 2006 bis 2009 von 540000 auf vier Millionen steigen. Das Marktpotenzial wird gar noch höher eingeschätzt.
Die wachsende Virtualisierung hat auch die Nische Server- und Speicher-Konsolidierung sowie Kostensenkung verlassen. Erweiterte Virtualisierungsmöglichkeiten machen neue Liefermodelle, beispielsweise für Dienstleistungen denkbar - weil jede virtualisierte Schicht für sich bearbeitet und so etwa einzelnen Mitarbeiter zugeordnet werden kann. Als Stolpersteine der Virtualisierung führen die Analysten die technisch noch keineswegs auf dem neuesten Stand arbeitenden Unternehmen selbst an. Deren Infrastruktur sei oft noch nicht für virtuelle Systeme ausgelegt, die Standardisierung noch nicht an jenem Punkt, wo sie für eine Virtualisierung sein müsste.
Andererseits steigen, weil immer mehr Anwender schon jahrelang Erfahrungen mit der Server-Virtualisierung gesammelt haben, die Ansprüche an die Technik. Die Virtualisierung wird zunehmend als strategisches Thema erachtet. Überdies zeigen Firmen gesteigertes Interesse, Server, Speicher, Netze und das System-Management stärker als bisher zu virtualisieren. Womit die Anbieter gefordert sind, ihre Virtualisierungs-Tools auszubauen.
Geht es nach den Analysten, müssen Hersteller wie EMC, IBM, Hewlett-Packard (HP) und Microsoft Pakete für virtuelle Landschaften vorlegen, die eine effiziente Bedienung erlauben. Gefragt seien die schnelle Einführung der Werkzeuge und das vereinfachte Management heterogener, aus physikalischen und virtualisierten Servern aufgebauten Landschaften.
Diese Entwicklung ist sowohl bei EMC, wie bei IBM und HP erkannt. EMC versucht mit der soeben vorgelegten SAN-Virtuali-sierungslösung «Invista 2.0» der Vision eines vollständig virtualisierten Rechenzentrums näher zu kommen. Sie will die Integration mit VMware ESX Server optimiert haben, sodass Unternehmen nun ihre virtualisierten Server- und Storage-Ressourcen besser miteinander verbinden können. Damit sei die Flexibilität und Verfügbarkeit der Informationen und Applikationen optimiert worden, erklärt EMC.
Big Blue verspricht auf Anfang 2008 das Angebot «Blue Cloud». Diese Kombination aus Services, Hard- und Software soll ebenfalls ganze Rechenzentren virtualisieren. Blue Cloud soll sich vor allem bei schnell wechselnden Lasten und Datenmengen bewähren.
Big Blue verspricht auf Anfang 2008 das Angebot «Blue Cloud». Diese Kombination aus Services, Hard- und Software soll ebenfalls ganze Rechenzentren virtualisieren. Blue Cloud soll sich vor allem bei schnell wechselnden Lasten und Datenmengen bewähren.
HP hat gerade erst in einem Rack ein komplettes virtualisiertes Rechenzentrum (VRZ) für den Einsatz in mittelgrossen Unternehmen zusammengestellt. Zu den aufeinander abgestimmten und vorinstallierten Komponenten gehören Applikations- und Datenbank-Server, Speichersystem und Software für das Infrastruktur-Management. Schnelle Inbetriebnahme wird von HP ebenso als wesentlicher Pluspunkt angeführt wie die flexible Ressourcennutzung und -verwaltung. Der Betrieb geschäftskritischer Anforderungen soll möglich sein.
Die Flut von Ankündigungen neuer Tools und Erweiterungen aller Hersteller zeigt, wie sehr Virtualisierung vom Hype zum unumgänglichen Thema geworden ist. Alex Reusch, technischer Berater bei EMC Schweiz, kristallisiert daraus zwei wesentliche Entwicklungen, welche die virtuellen Systeme 2008 bestimmen werden. Sie betreffen das Netzwerk und die Speicher.
So sei, erklärt Reusch, die Verlagerung der Intelligenz ins Netzwerk ein grosser Trend in der Virtualisierung. Funktionen wie Provisionierung oder Replikation, die bis anhin von Speichersystemen abgedeckt wurden, würden künftig von intelligenten Netzwerk-Switches übernommen. Zudem sieht Reusch eine Schwäche in der von vielen Anbietern der Einfachheit halber lancierten «In-band»-Virtualisierungslösungen. Weil diese nur so weit skalieren können, wie der Server es zu leisten vermag, entstehe ein Flaschenhals im Virtualisierungs-Server. Neue Lösungen werden, so Reusch, daher auf einer «Out-of-Band»-Architektur aufbauen. Dabei läuft die Virtualisierungslösung nicht direkt im Datenpfad, sondern verwendet intelligente Switches im Netzwerk. Ein anderer, klarer Trend zielt in Richtung Datenspiegelung im VirtualisierungsLayer, so Reusch. Dadurch werde ein unterbruchsfreier Betrieb ohne Umschaltung der Rechenzentren (Fail-over) im Katastrophenfall ermöglicht.
Hyper-V

Virtualisierungs-Offensive von Microsoft

Mit der Technik «Hyper-V» will Microsoft ab 2008 Vmware und Xen Paroli bieten. Die Virtualisierung von Microsoft beschränkt sich dabei nicht auf die Server.

Mit «Hyper-V» tilgt Microsoft 2008 eine weisse Stelle auf ihrer Produkte-Landkarte: Redmond steigt in den Markt für Unternehmens-Virtualisierung ein. Allerdings werden, bis es soweit sein wird, die Bäume grün sein und die Felder spriessen. Denn am 27. Februar 2008, wenn Windows Server 2008 offiziell erscheint, sind die Virtualisierungs-Komponenten noch nicht verfügbar. Erst drei Monate danach soll «Hyper-V Server» als eigenständiges Produkt angeboten werden. Die Windows-Server-Versionen mit integriertem Hypervisor sollen sogar erst im August 2008 folgen.
Dennoch: Der Eintritt von Microsoft in den Virtualisierungsmarkt ist eine Kampfansage an Vmware und Citrix mit Xen. Denn bei einem Preis, respektive Aufpreis von 28 US-Dollar für Hyper-V Server und die Windows-Server-Plattform sind die Lizenzkosten vernachlässigbar.
Mit dem eigenständigen Produkt Hyper-V Server wendet sich die Software-Gigantin auch an Unternehmen, die virtuelle Umgebungen ausschliesslich mit Linux oder Unix betreiben wollen. Die wichtigsten Hardwarehersteller haben bereits entsprechende Virtualisierungs-Plattformen auf Basis von Hyper-V Server angekündigt.
Eine wichtige Rolle in der Strategie von Microsoft spielen die Verwaltungswerkzeuge. So ist der Virtual Machine Manager als Erweiterung zum System Center ausgelegt. Damit lassen sich von zentraler Stelle aus virtuelle wie auch physische Server verwalten. Die Pläne von Microsoft beschränken sich jedoch nicht aufs Rechenzentrum, sondern umfassen auch den Desktop. Neben den existierenden Remote-Lösungen in Form der Terminal-Services sollen Firmen ganze Desktop-Systeme auf Vista-Basis, aber auch einzelne Anwendungen, in virtuellen Umgebungen betreiben können. Damit erfolgt der Eintritt von Microsoft in das Trend-thema Virtualisierung zwar spät, dafür um so umfassender. ahe
Volker Richert



Das könnte Sie auch interessieren