Storage 10.06.2013, 18:24 Uhr

Netapps 50-Prozent-Garantie

Mit grossem Marketingwirbel bringt der Storage-Anbieter Netapp sein Clustered Data OnTap 8.2 auf den Markt, und garantiert: Mit NetApp benötigen Kunden 50 Prozent weniger Speicher als mit den Lösungen der Konkurrenz.
Schon vor dem offiziellen Marktstart am Dienstag (11. Juni) hatte NetApp "exklusiv" einige Journalisten nach Amsterdam geladen, um dort über das neue Speicher-Betriebssystem "Clustered Data OnTap 8.2" zu informieren. Letztlich handelt es sich um ein sogenanntes "Minor Release", also ein Upgrade von 8.1 auf 8.2. Matt Watts, Director Technology and Strategy bei NetApp, strich besonders zwei Benefits ganz dick hervor: Erst einmal habe Netapp mit dem Release 8.2 die fürs Upgrade normalerweise erforderliche Downtime, also die Ausfallzeit, auf eine komplette Null reduziert. Ausserdem skaliere das neue OnTap 8.2 besser als die Lösungen der Konkurrenz: von 1 TeraByte/2 Nodes auf maximal 69 PetaByte/24 Nodes. Watts gibt zudem eine 50-Prozent-Garantie ab: Mit Speicherlösungen von NetApp sollen Kunden etwa 50 Prozent weniger Storage benötigen als mit vergleichbaren Produkten. Reinoud Reynders, IT-Manager am belgischen Universitätshospital Leuven, berichtete aus der Praxis. Die Speicherlandschaft des Leuveners Uni-Hospitals besteht heute aus 650 TByte Röntgenfotos aus der Radiologie. Vier Krankenhäuser mit insgesamt 3500 Betten produzieren "radiologisch" etwa 50 TByte an Daten pro Jahr. Hinzu kommen 125 TByte aus digitalisierten Patientanakten und Dateien. Den Storagebedarf des Fachbereichs "Genom-/DNA-Analyse" beziffert Reynders auf zurzeit 150 TByte, der werde aber in Zukunft stark zunehmen. High Performance Computing schliesslich beansprucht 120 TByte auf den Festplatten, macht insgesamt ein gutes PetaByte an Datenvolumen am Unispital - Stand heute.

Uni-Spital: 1 FTE pro 2,5 PetaByte

Warum kauft das UZ Leuven nun Speicher von NetApp? Reynders nennt vor allem zwei Gründe: Über die letzten 10 Jahre hätten sich die Kosten für Storage etwa halbiert, obwohl der Speicherbedarf natürlich gestiegen sei. Für Betrieb, Management und Pflege sei ausserdem nur knapp 1 FTE (Full-time equivalent), also eine Vollzeitstelle, pro 2,5 PByte Speicher anzusetzen. Eine interessante Kennzahl, verschlingt doch die Administration der Systeme nach der Anfangsinvestition die meisten Kosten. Reynders freut sich über die Skalierbarkeit des neuen OnTap 8.1, die es ihm gestattet, vom heutigen 4-Node-Speichercluster auf 24 Nodes aufzurüsten. Ein 24-Node-Cluster besteht (maximal) aus bis zu 12.000 Volumes und 100.000 NFS-Client-Rechnern. Storage-Provider bieten auf dem Hardware-Level nahezu das Gleiche, die Differenzierung im Wettbewerb finde auf dem Software-Layer statt, betont NetApps John Rollason. NetApp hat zwischen herkömmlichen Virtuellen Maschinen und der Bare-Metal-Hardware eine sogenannte "Storage Virtual Machine" (SVM) eingeführt, also einen Container, der auch unternehmensinterne Storage-Policies enthält. Das neue Clustered Data OnTap unterstützt damit alles, was eine LUN oder einen Block als Speichereinheit bereitstellen könne, so Rollason. Darunter fallen natürlich auch Speicherlösungen von EMC, Hewlett-Packard, Hitachi Data Systems (HDS) und IBM. Softwareseitig arbeitet Release 8.2 mit Microsoft Windows 2012 Hyper-V zusammen, ausserdem mit VMware vSphere APIs (Application Programmer Interfaces), der noch recht neuen Horizon-Suite und VMware vCloud. Laut Netapp haben Kunden mit Clustered Data OnTap 8.2 die Option, logische Speichereinheiten anbieterübergreifend aufsetzen zu können.

Netapps Exabyte-Kunden

Vor einem guten Jahr berichtete der ERP-Weltmarktführer SAP vom Petabyte-Club, von Kunden also, die ein Petabyte an Daten (1 Million GigaByte) auf ihren Festplatten gespeichert halten. Netapps Vice President David Gingell bringt jetzt die ersten US-amerikanischen Exabyte-Kunden ins Spiel (1 Exabyte = 1000 Petabyte). Deren Speichersysteme stehen damit vor der Herkulesaufgabe, neben den Daten etwa eine halbe Million physikalischer Laufwerke (disk drives) managen zu müssen. Die meisten unserer Kunden, gibt Gingell zu, benötigten jedoch nicht derartig hochgerüstete High-Capacity-Umgebungen.



Das könnte Sie auch interessieren