16.01.2008, 08:41 Uhr

Hardware-basierte Storage-Virtualisierung

Speichernetzwerke werden immer komplizierter. Virtualisierung gilt als Ausweg - kann aber selbst auch zu unübersichtlichen Strukturen führen. Storage-Controller helfen dieses Risiko zu minimieren.
Bei der Virtualisierung ist es wichtig, dass am Ende eine überschaubare Infrastruktur entsteht.
Kurt Aebi ist Product Marketing Manager bei der Schweizer Hitachi Data Systems (HDS).
Für allzu viele Betreiber ist die Versuchung gross, ihre Storage-Infrastrukturen projektbezogen durch die Anschaffung kostengünstiger Komponenten zu erweitern. Doch damit erhöhen sie immer auch die Komplexität ihrer Netzwerke. So sind Speichernetze anfänglich zwar ein wirksames Mittel, um bestehende Kapazitäten besser zu nutzen. Dieser Effekt schrumpft aber mit der wachsenden Komplexität der Netze, wenn nicht rechtzeitig konsolidiert wird. Müssen dann noch regulatorische Anforderungen wie etwa Basel II und SOX (Sarbanes Oxley Act) umgesetzt werden, ist die unerwünschte Speicher-fragmentierung unumgänglich. Beispiele dafür sind die Archivierung von Daten auf dedizierte Systeme, virtuelle Tape-Libraries und neue Funktionen wie De-Duplication und Thin Provisioning auf jeweils eigenen Plattformen. Doch auch dabei wird allzu oft ausgeblendet, dass eine Fragmentierung der Speicherlandschaft die Anfälligkeit und Abhängigkeit von Spezialisten wie die Betriebskosten erhöht.

Virtualisierung - das Allheilmittel?

Mit der Speichervirtualisierung stehen heute aber Technologien zur Verfügung, die diese fragmentierten Storage-Infrastrukturen unter einer Management-Ebene vereinen und harmonisieren. Allerdings darf bei der Realisierung einer virtuellen Speicherlandschaft das ursprüngliche Ziel, eine überschaubare Infrastruktur zu schaffen, nicht aus den Augen verloren werden. Denn grundsätzlich ist der Virtualisierungsansatz ja nicht neu. Virtuelle Maschinen gibt es schon seit den frühen Mainframe-Zeiten. Es kommt also auf die Umsetzung an.

Hardware als sichere Basis

Bei der Speichervirtualisierung sind Zuverlässigkeit und Integrität besonders wichtig. Gehen die Informationen über die Location der Daten verloren, sind eben auch die Daten selbst verloren. Grundsätzlich stehen drei Möglichkeiten der Virtualisierung zur Verfügung, um solchen Datenverlusten vorzubeugen.
Das sind erstens Softwarelösungen. Sie belasten jedoch die Server und das Netzwerk stark und skalieren nur sehr begrenzt. Ihr Einsatz beschränkt sich deshalb auf kleine Installationen. Ausserdem werden zwar neue Funktionen bis heute meist zuerst mittels Software implementiert, weil sich so Änderungen und Verbesserungen einfach und schnell umzusetzen lassen. Dennoch sind dieser Art der Realisierung Grenzen gesetzt, wenn höhere Effizienz und Zuverlässigkeit im virtuellen Umfeld erforderlich ist. Darum werden systemnahe Funktionen, die sich stabilisiert und bewährt haben, in der Regel microcodiert und später in die Hardware integriert. Beispiele sind Datenbank-Prozessoren, I/O-Prozessoren, RAID-Prozessoren, Filer oder TCP/IP-Stack-offload-Engines.
Zweitens existieren Netzwerk-basierte Lösungen. Das Problem liegt hier in der bereits angesprochenen höheren Komplexität der meist ohnehin schon komplexen Netze. Zudem müssen alle bisher von Speichersystemen in bewährter Manier ausgeführten Funktionen neu programmiert werden. Denn erst Cluster erhöhen die Verfügbarkeit der Daten. Ihre getrennten Cachespeicher kompromittieren jedoch die Datenintegrität. Wird im Netz bewusst virtualisiert, kann dies natürlich auch durch einen versierten Hacker mit Insiderwissen in krimineller Absicht geschehen.
Als dritte Variante steht die Hardware-basierte Virtualisierung via Storage-Controller zur Verfügung. Derartige Speicherlösungen lassen sich dynamisch konfigurieren. Der Schlüssel dieser Technologie liegt in getrennten Control- und Daten-Caches sowie in getrennten Datenwegen für Metadaten und Kundendaten. Der fehlertolerante, globale Cachespeicher bildet zudem kein Datenintegritätsrisiko wie bei Server-Clustern. Dieser entscheidende Unterschied macht den Einsatz der Speicher-Controller als Virtualisierungs-Engine erst möglich.

Datenintegrität, Fehlertoleranz, Kosten

Moderne Systeme emulieren Diskformate und benutzen RAID-Architekturen. Der Storage-Controller ist somit der einzige Ort, der über die physische Location der Daten Bescheid weiss. Da am effektivsten und effizientesten eine Arbeit dort erledigt wird, wo sie anfällt, geschieht die Virtualisierung im Controller. Dort liegen die Informationen. Zudem werden nicht mehr Tausende von Abfragen pro Operation über das Netz zur Virtualisierungs-Engine oder zum Server geschickt. Dies geschieht innerhalb eines Stora-ge-Controllers via Mi-crocode und Hardware effizienter und sicherer. Da Halbleiterchips nicht wie Software einfach geändert werden können, wurde für ihr Design ein ausgeklügeltes Simulations- und Testverfahren entwickelt, was die Hardware praktisch fehlerfrei macht. Storage-Controller gelten deshalb als sehr fehlertolerante Geräte.
Checkliste

Das zeichnet eine gute Speichervirtualisierung aus

- Einheitliche Verwaltung aller Speichersysteme
- Einheitliche Management-Tools für alle Funktionen
- Einheitliche Funktionen, die für alle Applikationen und Datenarten gleich sind
- Dynamische, unterbruchsfreie Migration von Daten zwischen Storage-Tiers
- Einheitliche Datenreplikation über alle Storage-Tiers
- Erhöhte Ausnutzung der Speicherkapazität
Um diese Kennzeichen effizient umzusetzen, sollte eine Speichervirtualisierung folgende drei Bereiche weitgehend ohne Belastung der Server- und Netzwerkinfrastruktur ausführen:

Sie muss selbstkonfigurierend sein:

- Automatisches end-to-end-Provisioning vom Host über das SAN bis zum Storage
- Automatisches Tuning respektive Load Balancing
- Garantierte Quality of Service
- Automatisierbares Daten-Lifecycle-Management
- Dynamisches Verschieben von Daten zwischen Storage-Tiers

Sie muss selbstheilend sein:

- Proaktive Diagnoseverfahren und hochredundante Hardware

Sie muss selbstschützend sein:

- Einheitliche Backup- respektive Restore- und Disaster-Recovery-Verfahren
Hardware-basierte Virtualisierung

Die Geschichte der Speichervirtualisierung

Es war naheliegend, bei der Entwicklung einer Hardware-basierten Lösung auf bewährte Techniken zurückzugreifen. Da der japanische IT-Markt für westliche Computerfirmen früh attraktiv war, erschlossen sie ihn aufgrund sprachlicher und kultureller Unterschiede mit einheimischen Partnern. Hitachi Data Systems (HDS) war einer davon, der für diverse andere Hersteller die notwendigen Anpassungen ihrer Applikationen und Systeme vorgenommen hat. Die so entstandenen Entwicklungskooperationen hat HDS genutzt, um die jeweiligen Systeme der verschiedenen Hersteller auf einer Hardwareplattform kompatibel abbilden, also virtualisieren zu können. So entstanden über Jahre hinweg jene Architekturen, die heute für eine Speichervirtualisierung wesentlich sind.
Kurt Aebi



Das könnte Sie auch interessieren