04.02.2005, 00:00 Uhr

Im Griff komplexer Speichernetze

Mit einem Pilotprojekt ist das Bundesamt für Informatik und Telekommunikation (BIT) vor fünf Jahren in die SAN-Welt (Storage Area Network) gestartet. Heute trumpft das BIT gerade auch angesichts der Sparmassnahmen des Bundes mit der Optimierung ihres Speichernetzes.
Interview:
Die Infrastruktur, die Stefan Kälin, Leiter des Storage-Bereichs im Betriebszentrum des BIT, unterhält, kann sich sehen lassen: Im Rechenzentrum an der Monbijoustrasse in Bern der acht Jahre alte futuristische Bau wird auch Titanic II genannt laufen 1350 Server, von denen ein grosser Teil an das redundant ausgelegte SAN angeschlossen sind und so auf die zentral gespeicherten Daten zugreifen. 10 Speicherroboter stellen über ein Petabyte 1 Petabyte entspricht 1000 TByte Speicherkapazität für die Datensicherung zur Verfügung. Die Datenmassen werden auf zirka 10 000 Tapes mit je 80 bis 90 GByte Speicherplatz an drei Orten abgelegt. Kälin hat dafür zu sorgen, dass keine Daten des Eidgenössischen Finanzdepartements (EFD) und des Eidgenössischen Departments für Umwelt, Verkehr, Energie und Kommunikation (UVEK) untergehen können.
Computerworld sprach mit Stefan Kälin über Aufgaben und Probleme im Storage-Sektor.
Herr Kälin, was ist besonders am Speichernetzwerk des BIT?
Stefan Kälin: Als wir vor fünf Jahren in einem Pilotprojekt ein SAN aufgebaut haben, gehörten wir zu den ersten im Land. Dieser technische Vorsprung hat uns sehr früh für die mit einem Speichernetzwerk einhergehenden Probleme sensibilisiert. Entsprechend rasch sind wir dem Problem der wachsenden Komplexität unserer Speicherinfrastruktur begegnet und sind um den Aufbau und die Pflege des hohen Know-hows für das SAN-Management besorgt gewesen. Wir arbeiten inzwischen mit Hochdruck an der Umsetzung von Alternativen zur veralteten Technik. Ausserdem sind wir seit etwa zwei Jahren von den Sparmassnahmen des Bundes betroffen. Darauf mussten wir uns einstellen, damit wir heute und in Zukunft unseren Kun Stefan Kälin: Als wir vor fünf Jahren in einem Pilotprojekt ein SAN aufgebaut haben, gehörten wir zu den ersten im Land. Dieser technische Vorsprung hat uns sehr früh für die mit einem Speichernetzwerk einhergehenden Probleme sensibilisiert. Entsprechend rasch sind wir dem Problem der wachsenden Komplexität unserer Speicherinfrastruktur begegnet und sind um den Aufbau und die Pflege des hohen Know-hows für das SAN-Management besorgt gewesen. Wir arbeiten inzwischen mit Hochdruck an der Umsetzung von Alternativen zur veralteten Technik. Ausserdem sind wir seit etwa zwei Jahren von den Sparmassnahmen des Bundes betroffen. Darauf mussten wir uns einstellen, damit wir heute und in Zukunft unseren Kunden in der Bundesverwaltung ein optimales und konkurrenzfähiges, also bezahlbares SAN zur Verfügung stellen zu können.
Welche Datenmengen haben Sie heute zu verwalten?
SK: Real sind wir inzwischen bei einer Datenmenge von 105 TByte angekommen. Davon werden noch rund 10 TByte lokal auf Festplatten in Servern abgelegt, das sind in der Regel Betriebssystemdaten. Der restliche Datenbestand ist im Sinne von 'Enterprise Storage' auf zentralen Disk-Subsystemen abgespeichert und der Zugriff darauf erfolgt übers SAN. Die während des Tages veränderten und hinzugefügten Daten werden in der Nacht über diverse Tape-Roboter gesichert und dort gemäss den mit den Kunden vereinbarten Service Level Agreements aufbewahrt. Ist in den letzten zwei, drei Jahren der Datenbestand noch um 25 bis 30 Prozent gewachsen, haben wir nun zwar erstmals ein etwas schwächeres Wachstum, doch der Hunger nach Plattenkapazität bleibt enorm.
Wie charakterisieren Sie den Wandel in der Datensicherung des BIT?
SK: Als wir im Jahr 2000 in die SAN-Welt gestartet sind, konnten wir noch ein relativ anspruchvolles und damit auch teures Pilotprojekt starten. Damit verfügen wir heute zwar über die aktuellste SAN-Technik in diesem Bereich. Doch angesichts der gegenwärtigen Sparmassnahmen des Bundes bereiten uns die Kosten dieser Infrastruktur Sorgen. Denn die anfallenden Gebühren pro SAN-Port sind nun einmal relativ teuer. Dabei muss man im Auge haben, dass das BIT gerade im Pilotprojekt als Partner der Hersteller bei der Hardware gute Konditionen aushandeln konnte.
Hängt denn der Einsatz Ihres SAN sosehr von den Kosten ab?
SK: Die Kosten sind so wesentlich, dass sie uns zwingen, neue Lösungen zu suchen. Zum Beispiel müssen wir die Serverkosten dringend reduzieren. Zudem wächst die Datenmenge trotz des Rückgangs nach wie vor auf unheimliche Weise. Denn wir müssen jedes sich verändernde Byte sichern.
Was wollen Sie unternehmen, um dieses Problem in den Griff zu bekommen?
SK: Einerseits machen die heute vorhandenen rund tausend SAN-Ports eine Umstellung der Topologie auf Core-Switches nötig. Zum anderen bauen wir inzwischen SAN-Inseln auf. Das ermöglicht es uns, redundante Strukturen durch eine Inseltopologie aufzubrechen. Zudem setzen wir auf Backup-Methoden, die ohne Server abgewickelt werden können. Das heisst, die Daten erreichen den Backup-Roboter ohne Server dazwischen.
Werden die Storage-Strukturen auf diese Weise nicht ziemlich komplex?
SK: Nein, genau das Gegenteil trifft zu. Zur Zeit sind zwei Personen für die Verwaltung des SAN im BIT zuständig. Deren Know-how ist für uns fast unentbehrlich geworden. Würden wir unsere Infrastruktur aber weiter wachsen lassen, wäre die mitwachsende Komplexität auf Dauer einfach nicht mehr zu managen. Auch das ist ein Grund, nicht einfach nur den hochkomplexen Status quo zu verwalten. Dazu muss man wissen, dass diese Realität der bestehenden Speicherinfrastrukturen jede kleinste Störung zu einem gewaltigen Problem machen kann.
Welche Alternativen sind angesagt?
SK: Wir haben das Drei-Standorte-Konzept. Primärstandort ist Titanic II. Rund 4,5 Kilometer entfernt in der Fellerstrasse befindet sich der zweite Standort, der via Wellenlängenmultiplexer (DWDM, Dense Wavelength Division Multiplexing) angebunden ist. Und gut hundert Kilometer entfernt befindet sich ein dritter Standort in den Bergen. Zu diesem besteht eine Point-to-Point-Verbindung, die über Fibre Channel (FC) ebenfalls mit DWDM-Technik eingebunden ist. Computersysteme, die im Krisenfall für die Landesregierung relevant sind, werden an diesem Standort betrieben. Besonders schützenswerte Daten von heiklen und zum Teil politisch brisanten Applikationen werden zudem an diesem Standort gesichert. Wir bauen nun, um dieses Konzept auch weiterhin sinnvoll handhaben zu können, Speicherinseln auf. Das SAN kann also flexibel durch Hinzufügen neuer Switches erweitert werden, ohne in die Anwendungen einzugreifen. Dabei stellt die FC-Anbindung den nötigen hohen Datendurchsatz sicher. Über die neuen Generationen von Switch-Directors können wir ausserdem die An zahl Ports in den Griff bekommen. Die einzelnen SAN-Inseln bilden einen Ring und erlauben, die Daten über die in Bern aufgebaute DWDM-Infrastruktur asynchron und remote zu sichern. Nur der Tertiärstandort zur Datensicherung ist über eine Punkt-zu-Punkt-Verbindung an den Primär- und Sekundärstandort direkt angeschlossen.
In welcher Weise hat sich der Datensicherungsauftrag des BIT in den letzten Jahren verändert?
SK: Insbesondere seit den Terroranschlägen des 11. September 2001 ist die Sensibilität für Datenverluste erheblich gestiegen. Wir stellen ein grosses Interesse für die zentrale Katastrophensicherungslösung fest, die das BIT als Querschnittsfunktion für die ganze Bundesverwaltung anbietet. Der Anspruch lautet heute, dass Daten ständig verfügbar sein müssen. Darum ist ein dedizierter Storage-Bereich geschaffen worden.
Warum betonen Sie diesen Punkt?
SK: Gerade deshalb, weil der Speichersektor heute ein Legitimationsproblem hat. Datensicherung und Storage waren einst aus ganz bestimmten Gründen von der Systemadministration getrennt worden. Heute müssen die Speicherspezialisten erklären, was sie eigentlich Besonderes machen, zumal doch übers Netz gespeichert wird.
Was heisst das konkret?
SK: Zunächst muss klar sein, wie komplex die Datensicherung ist. Wir haben den gesamten Weg der Daten im Auge zu behalten: Datenhaltung, Backup und Restore, SAN und NAS sowie die staatsspezifische Katastrophenvorsorge und die Archivierung. Angesichts der wachsenden Komplexität müssen wir nach klaren Strukturen zu suchen. Die kristallisieren sich aber nur langsam heraus.
Welche weiteren Entwicklungen stehen dringend an?
SK: Die Datenmengen, die im Direktzugriff auf teuren, hochperformanten Speichersystemen lagern, müssen dringend kleiner werden. Hierbei sehe ich ein erhebliches Potenztial in der Umsetzung von ILM-Konzepten (Information Lifecycle Management). Dabei werden Daten, auf die einige Zeit nicht mehr zugegriffen wurde, von schnellen und teuren auf langsame und billige Medien kopiert und entlasten so ni SK: Die Datenmengen, die im Direktzugriff auf teuren, hochperformanten Speichersystemen lagern, müssen dringend kleiner werden. Hierbei sehe ich ein erhebliches Potenztial in der Umsetzung von ILM-Konzepten (Information Lifecycle Management). Dabei werden Daten, auf die einige Zeit nicht mehr zugegriffen wurde, von schnellen und teuren auf langsame und billige Medien kopiert und entlasten so nicht nur die Datensicherung, sondern senken auch die Kosten. Längerfristig erwarte ich im Bereich Datenspeicherung mittels Nanotechnik bahnbrechende neue Techniken. Im Bereich der Datensicherung von Datenbanken prüfen wird den Einsatz von Block Level Incremental Backup (Blib). Bei dieser Methode werden nur noch die seit der letzten Datensicherung veränderten Datenblöcke gespeichert, dadurch reduziert sich das Backup-Volumen erheblich. Ausserdem müssen Speichernetze einfacher gemanagt werden können. Denn als Pferdefuss der Komplexität beginnt sich das SAN-Management zu verselbständigen.
Volker Richert



Das könnte Sie auch interessieren