03.11.2005, 18:29 Uhr

Server-Virtualisierung wird Mainstream

Immer mehr Unternehmen setzen auf die Virtualisierung ihrer Server-Infrastruktur. Kein Wunder, schliesslich birgt dieses Verfahren enormes Einsparungspotenzial.
Zuerst war es nur ein Softwarehersteller, der sich dem exotischen Thema Server-Virtualisierung auf x86-Architekturen angenommen hatte. Später folgte ein Software-Gigant. Heute haben auch CPU-Hersteller Gefallen an diesem Thema gefunden und entwickeln neue Chip Architekturen. Die Open-Source-Gemeinde betreibt ebenfalls Projekte und ein Markt für Tools von Drittherstellern entsteht. Dies alles zusammengenommen sind klare Indikatoren, dass sich die Virtualisierung von Server-Infrastrukturen zum Mainstream entwickelt. Bei der Virtualisierung geht es darum eine Abstraktionsschicht zwischen der Hardware eines Servers (Host) und dem eigentlichen Betriebssystem zu legen - oder anders gesagt - das Betriebssystem wird nicht mehr auf «das Blech» installiert, sondern auf respektive in eine Software. Die dabei entstehende Virtuelle Maschine (VM) ist eine grosse Datei und einem «traditionellen Blech-Server» in seinen Funktionen faktisch ebenbürtig. Sie lässt sich aber dank ihrer Form beliebig kopieren und auf Hosts positionieren. Die dabei entstehende Flexibilität ist schlichtweg atemberaubend und hat keine Entsprechung in der traditionellen IT-Welt.

Server-Virtualisierung wird Mainstream

Sich daraus ergebende Tatsachen

Die Anzahl der Firmen, welche die Virtualisierung ihrer Server-Infrastruktur betreiben, wächst rasant. Dieser Markt hat ein traumhaftes Wachstum von 100 Prozent pro Jahr - und ein Ende ist nicht abzusehen. Die Gründe, diesen Weg zu beschreiten, sind signifikante Einsparungen im IT-Betrieb. Quantitative Einsparungen sind in den folgenden Bereichen möglich: Einsatz von weniger Hardware, bessere Auslastung der Hardware, Optimierung der Energiezu- und abfuhr, Einsparung von Serviceverträgen und Raumbedarf.
In die qualitativen Kosteneinsparungen fallen: Schnelleres Deployment, eine reale Testumgebung, massiv beschleunigtes und generationsunabhängiges Disaster Recovery. Diese Argumente sind keine leeren Versprechungen von Marketing Abteilungen, sondern effektiv gelebte Realität in einer virtuellen Infrastruktur.
Wird in einer Kostenrechnung der traditionelle IT-Betrieb einer Virtualisierungs-variante gegenübergestellt, so hat die Virtualisierung, selbst unter der schlechtesten Annahme für sie, praktisch immer die Nase vorn.
Die grössten Einsparungen können erzielt werden, wenn die Serverinfrastruktur erneuert werden muss. Bestehende, neue Serverinfrastrukturen können Kosteneinsparungen meist nur im qualitativen Bereich vorweisen. Auch wenn die Virtualisierung ein immenses Potential besitzt, Grenzen gibt es auch für sie.

Server-Virtualisierung wird Mainstream

Möglichkeiten der Virtualisierung

Was eignet sich für die Virtualisierung? Hier sind als erstes Server mit Fachapplikationen und Funktionen, die selten genutzt werden, zu nennen. Diese brauchen kaum Ressourcen. Mitunter laufen diese auf Hardware, die vom Hersteller schon lange mit dem Gütesiegel "End Of Life" ausgestattet wurde. Eine Anschaffung eines neuen Servers wäre pure Geldverschwendung und ist bei den heute vielfach knappen IT-Budgets nicht angebracht.
Auch eignet sich Virtualisierung für Infrastrukturen mit Servern, die keinen hohen Ressourcenbedarf haben. Eine solch klassische Rolle ist ein Domänencontroller. Dieser bietet sich nicht nur wegen seiner geringen Lasterzeugung an, sondern auch vor allem deshalb, weil sein Kommunikationsverhalten sehr gutmütig gegenüber Latenzen im Netzwerk ist (zum Beispiel Active Directory: Multimaster Replikation mit loser Konvergenz).

Server-Virtualisierung wird Mainstream

Grenzen der Virtualisierung

Realtime-Systeme können nicht wirklich abgebildet werden. Virtualisierung basiert auf dem Prinzip von Ressourcen-Sharing. Selbstverständlich kann man für einzelne Gäste, je nach verwendetem Virtualisierungssystem, Ressourcenzuteilungen vornehmen. Eine Vorgabe von absolut definierten Verarbeitungszeiten ist jedoch nicht durchführbar. Hardwarespezialitäten wie USB Dongles, Faxkarten und andere Hardware können je nach Produkt nicht einfach eingebunden und verwendet werden. Somit wird in einer virtuellen Infrastruktur immer noch «ein Stück Blech» mitlaufen.
Server die unter hoher Last stehen stellen Grenzfälle dar. Ist ein 2-CPU-Server permanent unter 80-prozentiger Last, wird eine Virtualisierung auf ein 2-CPU-System wenig bringen. In diesem Fall macht nur ein Server ab vier Prozessoren wirklich Sinn.

Das Server Sizing

Server-Virtualisierung wird Mainstream

Eine der Fragen, die in Beratungsgesprächen sehr schnell gestellt wird, ist: Wie viele Server brauche ich, wenn ich meine Infrastruktur virtualisieren möchte? Diese Frage lässt sich für mittlere bis grössere Umgebungen meist nicht unmittelbar beantworten. Als Grundlage für eine Analyse der benötigten Infrastruktur muss eine Baseline der aktuellen Systemumgebung vorliegen. Dies ist aus folgendem Grund meist nicht der Fall: Solange es nicht zu spürbaren Engpässen in der Infrastruktur kommt, kramen die meisten System-Administratoren keinen Performance-Monitor hervor, um Grundlagenforschung und Prävention zu betreiben. Fehlt eine Baseline, so fehlt die Grundlage, um eine qualifizierte Antwort abzugeben.Die Erarbeitung dieser Daten kann mit den klassischen Mitteln der Betriebssysteme erfolgen. In grossen Infrastrukturen ist dies sehr zeitaufwändig. Diverse Hersteller am Markt bieten Tools an, mit deren Hilfe sich relativ schnell eine lastentechnische Gesamtsicht der laufenden Infrastruktur erzeugen lässt. Diese Tools gehen zum Teil so weit, dass sie auch gleich Empfehlungen zum Server-Sizing abgeben. Empfehlungen sind aber nur Empfehlungen - die letzte Gewissheit wird immer erst ein Systemtest mit sich bringen.
Nebst der lasttechnischen Verteilung muss auch der logischen Verteilung der VM Rechnung getragen werden. Klumpenrisiken müssen unbedingt vermieden werden. Konsolidierung bedeutet Konzentration auf weniger physikalische Server und eine Erhöhung der logischen Dichte. So liegt es auf der Hand, dass bei schlechter Planung, ein Ausfall nur eines physikalischen Rechners einen massiv negativen Einfluss auf die gesamte Infrastruktur bedeuten kann. Redundanz, eine genügende Anzahl von Hosts und eine vorausschauende Verteilung der VM darauf, ist absolut notwendig. Kurz gesagt gilt: Punkto Kapazitätsplanung: Nach Ausfall eines Rechners muss die restliche Infrastruktur fähig sein, die gesamte Arbeit zu übernehmen. Punkto Rollenverteilung: Systeme zur Erzeugung von Redundanz, wie z.B. Domänencontroller, gehören nicht alle auf denselben Host.

Server-Virtualisierung wird Mainstream

Die Infrastruktur von Morgen

Die nächste Generation der Virtualisierungs-Software steht vor der Markteinführung. In Zukunft werden sich aus Hosts Ressourcen-Pools bilden lassen. Ein solcher Pool besitzt ein bestimmtes Quantum an Energie (CPU-Power, Memory, Durchsatzgeschwindigkeiten in den Subsystemen, etc.). Notabene besteht der Pool aus einzelnen Rechnern mit spezifischen Leistungsmerkmalen. Wird einer dieser Rechner durch die auf ihm laufenden VM überlastet, so werden diese automatisch auf andere Mitglieder des Pools verteilt. Der Leistungsengpass kann so aufgelöst werden. Dieses System ist hoch skalierbar und extrem elastisch.
Ein weiterer grosser Vorteil ist die Reaktion des Gesamtsystems auf den Ausfall eines Hosts. VM, die auf dem ausgefallenen Host betrieben wurden, starten vollautomatisch auf den verbleibenden Hosts des Pools und sind in sehr kurzer Zeit wieder Online. Ein Lazy Clustering sozusagen. Ein solches System wird sich in gewissem Masse, nach definierten Regeln, selbst bewirtschaften.

Der Autor: Urs Stephan Alder ist Geschäftsführer der Zürcher Virtualisierungs-Spezialistin Kybernetika
Urs Stephan Alder



Das könnte Sie auch interessieren