29.05.2012, 10:32 Uhr

Kosten sparen durch native Dateioptimierung auf Primärspeichern

Datenvolumina auf Primärspeichern wachsen rasant und verursachen Kosten. Neue, innovative Wege zur Datenreduzierung schonen nachhaltig IT-Budgets.
Datenkomprimierung kann Kosten reduzieren.
Das Problem ist allgegenwärtig und brennt IT-Administratoren regelrecht unter den Nägeln: Das Datenvolumen wächst rasant und scheinbar unaufhörlich. Dabei verursachen vor allem die tägliche, intensive Nutzung von Microsoft Office-Programmen sowie die wachsende Anzahl an Bildern und Fotos in verschiedensten Dateiformaten eine von den Anwendern oft ungewollte Datenflut. Sämtliche Dateien werden von Anwendern gerne und häufig über das Netzwerk versendet, nehmen also Bandbreite in Anspruch, können Email-Postfächer verstopfen lassen und müssen zudem auch regelmässig gesichert werden. All dies lässt Datenberge immer rasanter wachsen  und wer sich nicht anders zu helfen weiss, dem bleibt oft nichts weiter übrig als immer mehr Speicherplatz zur Verfügung zu stellen. Trotz scheinbar sinkender Speicherpreise müssen so immer grössere Teile des IT-Budgets allein für die Bereitstellung von Speicherplatz herangezogen werden; das ist Geld, das an anderer Stelle für die Optimierung von Prozessen oder Einführung von neuen Programmen dann mangelt. Und dies trotz einer Vielzahl von auf dem Markt erhältlichen Lösungen wie Deduplizierung, Tiering und Archivierung, die darauf abzielen, Storagekosten zu reduzieren. Das zentrale Problem hierbei ist, dass sich solche Technologien an den Kern des Problems, der Hauptursache, gar nicht erst heranwagen und ineffizient bleiben.

Problem Primärspeicher

Eine Deduplizierung beispielsweise sorgt für die Eliminierung von doppelt vorhandenen Dateien bzw. Dateiblöcken. Das hohe Datenvolumen auf Primärspeichern wird jedoch von der Masse an unterschiedlichen Dateien verursacht. Im Vergleich zu Backupvolumina, bei denen die fortlaufende Sicherung von Daten eine hohe Redundanz und damit sehr gute Deduplizierungsergebnisse aufweist, sorgt die niedrige Redundanz innerhalb von Daten auf Primärspeichern nur für enttäuschte Gesichter. Dieses Problem ist keineswegs der jeweils eingesetzten Lösung anzukreiden, sondern der einfachen Tatsache, dass ein Redundanzniveau wie auf Backups auf Primärspeichern nicht gegeben ist. Lesen Sie auf der nächsten Seite, wie die native Dateioptimierung funktioniert.

Mit Komprimierung Platz schaffen

Ein Mittel, wie dennoch wirksam gegen das Datenwachstum vorgegangen werden kann, ist die native Dateioptimierung. Dabei handelt es sich nicht um eine Komprimierung im eigentlichen Sinne, sondern vielmehr um eine Optimierung der Inhalte einer Datei auf Dateiebene, bei der das Originalformat beibehalten wird. Unstrukturierte Dateien wie bspw. PDF-Dateien oder eine PowerPoint-Präsentation werden dabei auf Ihre Inhalte untersucht. Befindet sich in der Datei zum Beispiel ein Bild doppelt, in übergrossem oder gar falschen Format, wird dieses automatisch innerhalb der Datei optimiert. So können Grössenreduzierungen von 50-90% erreicht werden. Auch bereits komprimierte Dateien wie JPEG-Fotos können visuell verlustfrei optimiert werden, da Digitalkameras aufgrund limitierter CPU-Ressourcen und begrenzten Batterielaufzeiten die Möglichkeiten, die das JPEG-Format bietet in keinster Weise ausschöpfen. Dateien im JPEG-, TIFF- und anderen Formaten lassen sich durch native Dateioptimierung so um 70% und mehr reduzieren. Im Gegensatz zu einer Deduplizierung wird also ein ganz anderer Ansatz verfolgt, der aber gerade bei unstrukturiertem Datenvolumina auf Primärspeichern besonders gut funktioniert. So erzielte man bespielsweise bei der Sparkasse Münsterland Ost mit Hilfe einer solchen nativen Dateioptimierungslösung der Schweizer balesio AG damit beeindruckende Ergebnisse, wie der dort verantwortliche Projektleiter unterstreicht: «Durch den Einsatz der NFO-Technologie konnten wir bisher das MS Office-, Bild- und PDF-Datenvolumen auf unserem SAN-Storage um durchschnittlich 64% reduzieren.»  Innerhalb kurzer Zeit konnten Einsparungen im dreistelligen Gigabytebereich realisiert werden, so dass nun fast dreimal mehr Dateien auf dem existierenden Storage Platz finden. Durch die Reduzierung des Datenvolumens bereits auf dem Primärspeicher, ergeben sich neben diesen harten Einsparungen durch das geringere Datenvolumen ebenfalls kürzere Backupzeiten und geringere Backupvolumina, optimierte Dateien entlasten zusätzlich Netzwerk und Bandbreite nachhaltig.  Dies spiegelt sich dann in einem geringeren Speicherbedarf ebenso wider wie im Geldbeutel. * Christoph Schmid ist COO bei der balesio AG.


Das könnte Sie auch interessieren