Storage-Markt 11.10.2017, 07:30 Uhr

Diese Techniken machen der Festplatte den Garaus

All-Flash, Hybrid-Flash & Co. laufen der Festplatte den Rang ab. Doch nicht jede Storage-Lösung passt zu jedem Unternehmen. Der Marktüberblick zeigt die Besonderheiten der Technologien.
Durch die kontinuierlich fortschreitende Digitalisierung von Unternehmensbereichen fallen innerhalb kurzer Zeit immer grössere Datenmengen an, die im Rechenzentrum verarbeitet werden müssen. Laut IDC werden so im Jahr 2025 weltweit 180 Zettabytes (ZByte) an Daten zusammenkommen, gegenüber 44 ZByte im Jahr 2020 und 10 ZByte im Jahr 2015. Durchschnittlich steigt die Datenmenge pro Jahr dabei um etwa 33 Prozent, so die Marktforscher.
Nicht nur diese Entwicklung lässt bei Unternehmen die Nachfrage nach skalierbaren, flexiblen und kostengünstigen Speicherlösungen ansteigen. Auch Trends wie Big Data Analytics, Industrie 4.0 oder das Internet of Things (IoT) sorgen für viel frischen Wind auf dem Storage-Markt. Homogene Speicherumgebungen aus dem klassischen Mainframe- und Client-Server-Umfeld wie Direct Attached Storage (DAS) oder Storage Area Network (SAN) haben dabei das Nachsehen, da sie hinsichtlich Performance und Agilität nicht mehr mit den aktuellen Entwicklungen Schritt halten können. Als Nachfolger werden neben Cloud-Storage als klassischer Alternative zu On-Premise-Installationen gleich mehrere Speicherkonzepte gehandelt: All-Flash-Storage, Hybrid-Flash-Storage, Software-defined Storage (SDS) und hyperkonvergente Infrastrukturen bringen allesamt das Rüstzeug mit, um das eigene Unternehmensrechenzentrum zukunftssicher zu machen. Computerworld analysiert die Speicherkonzepte und ihre Charakteristika, beschreibt jeweils ein Musterbeispiel und präsentiert die Produkte marktführender Hersteller.

Auswahlkriterien

Welches Speichersystem die Anforderungen eines Unternehmens am besten bedient, hängt in erster Linie von den Storage- und Performance-Anforderungen der genutzten Anwendungen ab. So könnte eine Hybrid-Flash-Speicher­lösung, die kurzfristige Lastspitzen abfangen kann, für KMUs in vielen Fällen die bessere und kostengünstigere Alternative für die anfallenden Workloads darstellen als ein performantes All-Flash-System, dessen Leistung möglicherweise nur zu einem Bruchteil abgerufen wird. Um bereits vorhandene Storage-Hardware effizienter zu nutzen, wäre auch eine SDS-Implementierung interessant, was besonders für kleine Unternehmen auf lange Sicht Kostenvorteile bringen kann. Um die passende Speicherlösung zu ermitteln, sollten in die Bestandsaufnahme und Entscheidung ausserdem Faktoren wie Virtualisierung, Deduplizierung und Komprimierung sowie Verfügbarkeit und Skalierbarkeit einfliessen.
Nächste Seite: All-Flash für Performance

All-Flash für Performance

Die besten Chancen, um die Digitalisierung und die damit einhergehende Datenflut in den Griff zu bekommen, räumen Experten dem Flash-Storage ein. Im Gegensatz zu traditionellen Festplattensystemen wird Flash aufgrund seiner deutlich höheren I/O-Performance (Schreib-/Lese-Leistung) bei gleichzeitig wesentlich geringeren Latenzen auch von transaktionslastigen Anwendungen wie Datenbanken, Echtzeitanalysen oder virtuellen Desktop-Umgebungen (VDI) nicht ausgebremst. Dazu kommt, dass Techniken wie Komprimierung, Deduplizierung oder Verschlüsselung anders als bei klassischen HDD-Systemen von einem wesentlich höheren Datendurchsatz profitieren.
Neben der höheren Leistung kann Flash-Storage noch einige weitere Trumpfkarten gegenüber Festplatten ausspielen: geringerer Platzbedarf, geringere Temperaturentwicklung und höhere Zuverlässigkeit. Gab es anfangs noch Bedenken wegen der Datensicherheit von Flash-Speicher, stellt er mechanische Speichersysteme, darunter auch den Backup-Klassiker Bandlaufwerk, mittlerweile sogar in den Schatten. In der Summe lassen sich Flash-Speicher-Systeme damit effektiver betreiben, verwalten und skalieren als traditionelle Speicherlösungen. Zu guter Letzt spielt dem Flash-Storage auch der rapide Preisverfall in die Hände, mit dem er sich klassischen Speichermedien wie Festplatten immer weiter angenähert hat. Laut einer aktuellen Studie der Marktforscher von Loudhouse sind 74 Prozent der deutschen Unternehmen mit den Kosten ihrer alten Speichersysteme unzufrieden, 92 Prozent sehen aufgrund steigender Datenmengen deutliche Mehrkosten auf sich zukommen. Dabei setzen die meisten der Befragten entweder Hy­brid-Systeme aus Festplatten- und Flash-Speichern (71 Prozent) oder reine Plattenspeicher ein (56 Prozent). Neun von zehn Unternehmen wollen zu einer neuen Speicherplattform wechseln, die Mehrheit zu Software-defined-Storage-Lösungen (76 Prozent) für die Storage-Virtualisierung – ein Anwendungsgebiet, das All-Flash-Systeme sehr gut bedienen können.
Nächste Seite: Hybrid-Flash: zwei Welten

Hybrid-Flash: zwei Welten

Anders als All-Flash-Systeme setzen Hybrid-Flash-Arrays auf eine Mischung aus Festplatten und SSDs und nutzen damit die Stärken beider Systeme, denn zur hohen Leistung der SSDs kommt die immense Speicherkapazität der HDDs. Dabei decken die Flash-Laufwerke einen relativ kleinen Speicherbereich ab, der sich je nach System auf zweierlei Arten nutzen lässt: einmal als Cache-Speicher, um die I/O-Performance zu steigern, und zum anderen als eigener Storage-Tier.
Speichersysteme mit automatischem Storage-Tiering kategorisieren Daten anhand bestimmter Kriterien, etwa den Performance-Anforderungen, der Datengrösse oder der Wichtigkeit. Hierarchisch besonders hoch eingestufte Daten verschiebt das Hybrid-Flash-System auf den schnellen SSD-Bereich, wo sie zügiger abgearbeitet werden können. Ein Beispielfall sind virtuelle Desktop-Umgebungen, die während des Boot-Vorgangs hohe I/O-Lasten erzeugen. Seltener verwendeten Daten, zum Beispiel Backups oder Archivdaten, weist das Tiering-System eine geringere Priorität zu – bei Hybrid-Flash-Systemen sind sie ein typischer Fall für den Festplattenspeicher.
Aufgeschlüsselt nach Marktanteilen nehmen sich die Hy­brid-Flash-Lösungen derzeit noch das grösste Stück vom Storage-Kuchen. IDC attestiert ihnen für das vierte Quartal 2016 ein Marktvolumen von 38,4 Prozent. Auf die Festplatten entfallen immer noch 35 Prozent – abgeschrieben ist dieser Klassiker also noch nicht. Erst auf dem dritten Platz folgen All-Flash-Speichersysteme mit 26 Prozent Anteil am Gesamtumsatz. Unter allen Speichertypen verzeichnen sie im Vergleich zum Vorjahr aber das stärkste Wachstum (+ 61,2 Prozent).
Nächste Seite: Software-defined Storage (SDS)

Software-defined Storage (SDS)

Die zunehmende Digitalisierung macht auch vor der IT-Infrastruktur eines Unternehmens nicht halt. Um im Wettbewerb bestehen zu können, braucht es ein flexibles und skalierbares Rechenzentrum, das schnell auf steigende Nutzerzahlen, neue Systeme oder gestiegene Anforderungen an Speicherplatz und Hardware reagieren kann. Während traditionelle IT-Infrastrukturlösungen für solche Aufgaben zu starr und beschränkt sind, lassen sie sich mit virtualisierten Umgebungen ohne Weiteres stemmen. Ein wichtiger Baustein ist dabei die Virtualisierung der Speichersysteme mittels Software-defined Storage (SDS).
Eine SDS-Lösung trennt die Storage-Hardware mittels einer Abstraktionsschicht von der Speichermanagement-Software. Der virtualisierte Speicher – egal ob es sich dabei zum Beispiel um ein All-Flash-Storage- oder um ein Hybrid-Flash-Storage-System handelt – verhält sich dann wie eine eigenständige Ressource und lässt sich per Software von zentraler Stelle aus steuern und verwalten. Da sich der virtualisierte Speicher auch über mehrere Systeme und unterschiedliche Medien erstrecken kann, ist eine horizontale Skalierung (Scale-out), also der Ausbau der Speicherressourcen je nach Bedarf und Anforderung, nahezu beliebig möglich.
Nächste Seite: Hyperkonvergent: die Zukunft

Hyperkonvergent: die Zukunft

Eine SDS-Lösung lässt sich über eine hyperkonvergente In­frastruktur (HCI) in einem Unternehmen implementieren. In einer solchen Infrastruktur sind nicht nur der Speicherplatz, sondern alle wesentlichen Komponenten eines Rechenzen­trums wie Prozessoren, Server und Netzwerk von der zugrunde liegenden Hardware abstrahiert und in einer gemeinsamen Software-Schicht zusammengefasst. Alle Ressourcen laufen über eine virtuelle Maschine, die zur Administration und Optimierung von Infrastruktur und Datenbeständen dient. Den Unterschied zur konvergenten Infrastruktur macht die flexiblere Software-definierte Architektur aus. Bei einer konvergenten Infrastruktur sind alle Speicher-, Rechen- und Switching-Produkte in einer vom Hersteller getesteten Lösung zusammengefasst, was zwar den Austausch einzelner Komponenten vereinfacht, nicht aber alle anderen Verwaltungsaufgaben, die sich durch die Virtualisierung ergeben. Bei einem hyperkonvergenten System läuft dagegen die komplette IT-Infrastruktur automatisiert unter einem Hypervisor, was die IT-Abläufe deutlich weniger komplex macht.  Die Skalierung, der Service und die Zuteilung der Workloads werden so zu einer viel einfacheren Aufgabe und machen hyperkonvergente Systeme damit für grosse Rechenzentren genauso attraktiv wie für kleine und mittlere Unternehmen.
Nächste Seite: Vier Musterbeispiele

Vier Musterbeispiele

Um ein Gefühl für die Entwicklung auf dem Storage-Markt zu bekommen, eignet sich ein genauerer Blick auf konkrete Produkte, die für die verschiedenen Kate­gorien stehen können.
Festplatte – Seagate Enterprise Performance 10K HDD: Auch wenn einige IT-Auguren bereits das Ende der Festplatte nahen sehen, wird sie auf absehbare Zeit nicht aus dem Rechenzentrum wegzudenken sein. Genau dort fühlt sich die Sea­gate Enterprise Performance 10K HDD am wohlsten. Die SAS-Festplatte (Serial Attached SCSI) wurde laut Hersteller entwickelt, um den hohen Work­loads in Bereichen wie Datenbanken (ERP) und Online-Transaktionsverarbeitung (OLTP), virtuellen Desktop-Infrastrukturen (VDI) oder File-and-Print-Servern gerecht zu werden. Zudem soll sie sich auch für den Einsatz in externen Storage-Arrays und Servern mit geschäftskritischen Daten eignen. Ihr 2,5-Zoll-Formfaktor prädestiniert die HDD für beengte Rechenzentren mit strengen Energievorgaben sowie für Green-IT-Projekte. Seagate bietet die für den Dauerbetrieb konzipierte Enterprise Performance 10K HDD in Kapazitäten von 600 GByte bis 2,4 TByte an. Für flottere Datenübertragungen setzt die Festplatte auf einen 16 GByte grossen eMLC-Flash-Speicher (Enterprise Multi-Level Cell), der als schneller Zwischenspeicher fungiert und das Laufwerk so auf bis zu 270 MByte/s beschleunigen soll. Die kleinste Ausgabe der Enterprise Performance 10K HDD kostet rund 120 Euro, für das 2,4-TByte-Spitzenmodell sind etwa 600 Euro fällig. Ebenfalls erhältlich sind zwei nach dem FIPS-140-2-Standard zertifizierte Versionen mit Selbstverschlüsselung (1,8 und 2,4 TByte). All-Flash-Storage – NetApp EF560: NetApp bietet mit dem EF560 ein All-Flash-Array an, das für Applikationen mit ex­trem hohen Anforderungen an Performance, Zuverlässigkeit und Verfügbarkeit konzipiert wurde. Das SSD-Storage-System belegt zwei Höheneinheiten im Server-Schrank und kann 24 Laufwerke im 2,5-Zoll-Format beherbergen. In der maximalen Speicherausstattung mit 3,2-TByte-SSDs bringt es das Basissystem auf eine Kapazität von 76,8 TByte, die sich über insgesamt vier Erweiterungsgehäuse nach dem Baukastenprinzip auf bis zu 384 TByte skalieren lässt. Um Geschäftsabläufe nachhaltig zu beschleunigen, soll das NetApp EF560 mit Reaktionszeiten im Mikrosekundenbereich eine maximale I/O-Leistung von 825.000 IOPS sowie eine Bandbreite von bis zu 12 GBit/s erreichen. Das redundante All-Flash-Array unterstützt Standards wie Thin Provisioning und Komprimierung und ergänzt das um Funktionen wie automatisiertes Failover und eine Verfügbarkeit von 99,9999 Prozent. Als Management-Tool dient die Software SANtricity, die Administratoren Datensicherungsfunktionen wie Snapshots, Volume-Kopien und eine Remote-Replizierung zur Verfügung stellt. Über den SANtricity Cloud Connector lässt sich auch ein Cloud-Backup durchführen. Hybrid-Flash-Storage – Hitachi VSP G200: Die Virtual Storage Platform (VSP) ist eine Produktfamilie von Hybrid-Flash-Storage-Lösungen für die Enterprise-Speichervirtualisierung. Die insgesamt fünf Modelle basieren auf dem Betriebssystem Hitachi Storage Virtualization Operating System (SVOS), das über eine einzige Oberfläche einen zentralen Block- und File-Zugriff ermöglicht. Dadurch lassen sich laut Hitachi nicht nur Workloads konsolidieren, sondern Speicherressourcen auch einfacher ausbauen und verwalten. Dazu kommen Funktionen wie unterbrechungsfreie Updates und ein Austausch von Komponenten im laufenden Betrieb. Als kleinster Vertreter bietet der VSP G200 in seinem 2-HE-Gehäuse wahlweise Platz für 24 Laufwerke im 2,5-Zoll-Format oder zwölf 3,5-Zoll-Laufwerke und akzeptiert neben SSDs bis zu 6 TByte grosse Festplatten. Ein mittels Erweiterungsgehäuse voll ausgebautes System bringt es auf 264 Laufwerke und hievt den verfügbaren Speicherplatz auf 2520 TByte. Die Datenverfügbarkeit soll zu 100 Prozent gewährleistet sein – laut Hitachi ist das branchenweit einzigartig. Hyperkonvergent - HyperGrid GS-3000-FCN-90-2-v4: Mit seiner Appliance GS-3000 will HyperGrid gleich zwei Fliegen mit einer Klappe schlagen. Je nach Konfiguration wandert das komplette Rechenzentrum in 2-HE- oder 4-HE-Server-Racks und wird über die Microsoft Windows Server 2012 R2 Data Center Edition virtualisiert. Zum anderen kaufen Unternehmen die Appliance nicht ein, sondern mieten sie und kommen in den Genuss der As-a-Service-Vorteile: Instal­lation und Wartung entfallen, und bezahlt wird nach Nutzung. Wer sich für die GS-3000-Appliance entscheidet, kann aus mehreren vordefinierten Konfigurationen wählen. GS-3000-FCN-90-2-v4 ist das Einstiegsprodukt mit bis zu 92,2 TByte Kapazität.


Das könnte Sie auch interessieren