HPs dicke Software-Monster

HP ruft das Brontobyte-Zeitalter aus, und präsentiert Big-Data-Waffen gegen die Datenriesen. Mit seinen neuen AppSystems stösst der Konzern das Tor zu Zukunftsmärkten auf.

» Von Michael Kurzidim , 12.12.2012 18:30.

weitere Artikel

Momentan ist es in der IT-Szene gross in Mode, über "Big Data" zu reden. Hewlett-Packard etwa rief kürzlich auf seiner Hausmesse Discover das sogenannte Brontobyte-Zeitalter aus. Nie davon gehört? Keine Sorge, wir auch nicht. Denn diese Datenriesenberge sind gewissermassen nicht mehr menschlich. Zehn Finger und zehn Zehen reichen dafür schon lange nicht mehr aus. Hinter einem Brontobyte stecken, ganz langsam zum Mitzählen, 10 hoch 27 Bytes. Eine Zahl mit 27 Nullen.

Big-Data-Anbieter wie HP, Oracle oder Teradata kitzeln mit solchen Monsterzahlen gerne den Angstfaktor hoch - Hilfe, der Daten-Tsunami überrollt uns - und zaubern dann ihre eigenen Analytics-Maschinen aus dem Hut. Als Rettung in letzter Sekunde sozusagen. HP, Oracle, Teradata sei dank. Aber spüren Anwenderunternehmen tatsächlich den enormen Performance-Druck, der eine hohe Investition in die neuen Big-Data-Maschinen rechtfertigen würde? Im Allgemeinen nicht, hat Computerworld in vielen Gesprächen erfahren. Aber einige Firmen spüren ihn schon: Telco-Provider, grosse Retailer, Banken und Kreditinstitute fühlen sich angestachelt und denken über die neuen Big-Data-Cruncher intensiv nach.

Punkto Analytics hat es auch Hewlett-Packard auf diese Zielmärkte abgesehen, und wirft sein neues "AppSystem for Apache Hadoop (Cloudera)" an die Kundenfront. Noch in diesem Jahr will der Konzern sein Apache-Hadoop-System auf ProLiant-Gen8-Servern (DL380) auf den Markt bringen, mit Red Hat Enterprise Linux als Betriebssystem. Nun ist Hadoop/MapReduce eigentlich ein kostenloses Open-Source-Framework, entwickelt von Google für die hochgradig parallele Analyse unstrukturierter Daten. Warum also teures Geld dafür ausgeben?

HP optimiert Hadoop, ja aber...

Computerworld sprach mit Paul Miller, VP Converged Application-Systems bei HP. Hadoop sei ursprünglich nicht für den Echtzeitbetrieb, sondern für den Batchbetrieb entwickelt worden, sagt Miller. Für Real-Time-Analytics reicht das nicht. Miller streicht insbesondere die Cluster-Management-Qualitäten der HP-Lösung hervor. Nach internen HP-Messungen werden 800 sogenannte Nodes - also autonome, parallel arbeitende Rechenknoten - in etwa 30 Minuten ausgerollt.

Nächste Seite: HP Hadoop - Vergleich mit der Konkurrenz

Werbung

KOMMENTARE

Keine Kommentare

KOMMENTAR SCHREIBEN

*
*
*
*

Alles Pflichfelder, E-Mail-Adresse wird nicht angezeigt.

Die Redaktion hält sich vor, unangebrachte, rassistische oder ehrverletzende Kommentare zu löschen.
Die Verfasser von Leserkommentaren gewähren der IDG Communications AG das unentgeltliche, zeitlich und räumlich unbegrenzte Recht, ihre Leserkommentare ganz oder teilweise auf dem Portal zu verwenden. Eingeschlossen ist zusätzlich das Recht, die Texte in andere Publikationsorgane, Medien oder Bücher zu übernehmen und zur Archivierung abzuspeichern.