07.11.2012, 08:40 Uhr

Mit Technik gegen die Datenflut

Nur neuste Technologien helfen Unternehmen, der explodierenden Datenmenge Herr zu werden. Das reicht von skalierbaren, durchgängigen Architekturen für Storage Area Networks über schnellere Speicher­medien bis hinunter zur Deduplizierung.
Der Autor ist Head of Storage/Server bei Fujitsu Technology Solutions. Datenhaltung, kurze Zugriffszeiten und schnelles Recovery im Falle eines Falles sind für Unternehmen längst zu existenziellen Themen geworden. Die Datenwelle wird weiter anschwellen und droht, die Speichersysteme zu überfluten. Weltweit verdoppelt sich das Datenvolumen mindestens alle zwei Jahre und es müssen zudem ganz neue Datenwelten aufgenommen werden: Social-Media- und Multimedia-Elemente wie Videos und Audiobeiträge. Das hat Folgen.
Ein Blick in die Praxis zeigt die typischen Probleme, mit denen die Unternehmen dadurch zu tun bekommen, zum Beispiel beim Schweizer Versichungerungs-unternehmen Helsana. «Die Datenmenge ist schneller gewachsen als die Infrastruktur», berichtet Stefan Schneider, Storage Engineering bei Helsana. Der Versicherer betreut derzeit rund 1,9 Millionen Versicherte und 55000 Firmenkunden. Im Zuge der Ausbauarbeiten hat der Storage-Verantwortliche deshalb nach einer Lösung gesucht, die idealerweise den eingesetzten Z10-Mainframe mit einer Linux-Umgebung vereint und die Daten zwischen den beiden Rechenzentren automatisch replizieren kann. Das Unternehmen entschied sich für eine Festplatten-basierte Virtual-Tape-Library-Lösung, die vom Mainframe und von Linux-Systemen gespeist wird. Dadurch ist die IT nun flexibler, denn die Auslastung lässt sich nach Belieben variieren. Erwünschter Nebeneffekt: Die Zahl der notwendigen Storage-Racks reduziert sich dadurch von 12 auf 2. Mit der neuen Infrastruktur konnte die Ver­sicherung die Zahl der virtuellen Laufwerke von 128 auf 512 erhöhen und die Zahl der physikalischen Laufwerke von 19 auf 6 senken. Der Disk Cache erhöhte sich von 0,8 auf 32 TB und der Datendurchsatz von 600 MB/s auf 2500 MB/s. Dieser hohe Durchsatz ist nötig, damit beide Rechenzentren nahezu in Echtzeit auf dem gleichen Stand sind. Bei einem Test wurden die Rechenzentren für zwölf Stunden getrennt. Der anschliessende Abgleich der Daten dauerte gerade einmal zwei Stunden. Auf der nächsten Seite - Flesibilität ist Trumpf.

Flexibilität ist Trumpf

Gerade Grossunternehmen mit umfangreichen Storage Area Networks (SAN) wie die Helsana müssen Strategien für ihre IT entwickeln, die zukünftige Entwicklungen berücksichtigen. Flexibilität in den Storage-Prozessen wird dabei immer wichtiger und auch die Skalierbarkeit von Architekturen und Systemen spielt eine gros­se Rolle. Wenn eine Anpassung einen Technologiewechsel beziehungsweise Technologiebrücken erfordert, belastet das die IT-Abteilung zusätzlich. Neue Prozesse, zusätzliche Technik und das Fehlen von Erfahrungen ziehen ein umfangreiches Changemanagement nach sich. Umgehen lässt sich das durch eine einheitliche Storage-Architektur. Mit solch einem «Familienkonzept» ist die Skalierbarkeit einfacher, denn es müssen keine neuen Prozesse bewältigt werden. Gerade bei Fibre-Channel-basierten SANs setzen zum Beispiel in Japan bereits 25 Prozent der Unternehmen auf eine durchgängige Architektur. SANs zählen zu den komplexesten Anschaffungen in der IT-Welt. Erleichtert wird diese, wenn sich High-End-Komponenten und Low-End-Systeme genau gleich administrieren und in Standard-Racks einbauen lassen. Die Datenmengen werden dabei nach Tiered-Storage-Lösungen kategorisiert. Auf Tier 0 liegen die Daten, auf die viele Benutzer schnell zugreifen, die also auf extrem schnellen Speicher­medien vorrätig gehalten werden müssen. Es gibt auch schon Systeme, die vollständig auf Solid State Drives (SSD) basieren. Diese Flash-Speicher sind die schnellsten Bausteine, weil sie ohne beweg­liche Teile auskommen. Allerdings sind sie noch so teuer, dass die meisten Unternehmen von einer Komplett­lösung ab­sehen. Am anderen Ende stehen auf Tier 3 jene Daten bereit, die wenig gebraucht werden, etwa Archive. Hier kommen langsamere Festplatten zum Einsatz, die deutlich billiger sind. Extrem leistungsstarke Speichersysteme, etwa in Grossunternehmen, erreichen heute schon Speicherkapazitäten von mehreren Petabyte (Mio. Gigabyte), basieren auf Quad-Core-Prozessoren und verfügen über Schnittstellen zum Fibre-Channel-Host, die einen Datendurchsatz von 8 Gigabit pro Sekunde erlauben. Auf der nächsten Seite: Dopplungen vermeiden und Fazit.

Dopplungen vermeiden

Ganz andere Möglichkeiten, um Datenmengen in den Griff zu bekommen, bietet die Deduplizierung. In fast allen Datenbeständen existieren gewaltige Mengen von Daten, die mehrfach vorhanden sind. Deduplizierung ist in der Lage, diese überflüssigen Informationen zu eliminieren. Dafür werden platzsparende Referenz-Pointer angelegt, die redundante Datenblöcke innerhalb der Backup-Dateien ersetzen. Die Lösung zerlegt alles in Blöcke, analysiert diese und ersetzt Dopplungen einfach durch Pointer. Es werden also nur die Daten erneut gespeichert, die zwischen den Backup-Phasen hinzugekommen oder verändert worden sind. Das ist die ideale Grundlage, um Voll-Backups platzsparend zu sichern. So kann ein Unternehmen nach einem Absturz schnell auf den letzten Stand zurückspringen und muss nicht die inkrementellen Sicherungen plus die letzte Vollsicherung einzeln wiederherstellen, was erheblich zeitaufwendiger und fehleranfälliger wäre.

Fazit: Veränderungen nötig

Das Research-Unternehmen IDC hat in einer Studie die Entwicklung der letzten Jahre und ihren Einfluss auf die IT untersucht und kommt zu dem Schluss, dass «eine Veränderung der Backend-Infrastruktur in Rechenzentren notwendig» ist, um angesichts der wechselhaften Marktbedingungen die Geschäftsaktivitäten effizient unterstützen zu können. Die IT-Abteilungen müssten ihre Abläufe optimieren und flexible Rechenzentren einrichten, um ihre Aufgaben erfüllen zu können. IDC stellte in ihrer Studie eine starke Verbindung zwischen der Gesamtleistung von Rechenzen­t­ren und Kenntnissen in Bezug auf die Speicherung fest. Das Unternehmen schätzt, dass ein modernes Speicher-Backend die Wartezeiten – abhängig von der Anwendung – um bis zu 20 Prozent verringern kann. Bei Eingabe/Ausgabe-intensiven Data-Warehouse-Workloads seien Verbesserungen im Bereich um 30 Prozent möglich. Die Studie unterstreicht damit indirekt auch die Wichtigkeit einer durchgängigen Storage-Architektur. Ausserdem wird die technische Entwicklung sicher dazu führen, dass die Preise für SSDs sinken und komplette SSD-Lösungen im High End auch von der Kostenseite her realisierbar werden. Die IT wäre dann auch für einen Daten-Tsunami gerüstet.


Das könnte Sie auch interessieren