Exklusiv-Interview 16.04.2012, 15:44 Uhr

Big Data - Fakten, Trends, Prognosen

Technologieführer wie Oracle, SAP und Teradata präsentieren ihre Lösungen. Aber auf welchen Märkten generiert Big Data echten Mehrwert? CW sprach mit Stephen Brobst, Technologieberater von Präsident Barack Obama, über seine Big-Data-Strategien für die U.S.A. und die Schweiz.
Stephen Brobst, CTO Teradata, berät den amerikanischen Präsidenten punkto Technologie-Investments.
Big Data ist das nächste, ganz grosse Ding. Mit Big Data wollen Schweizer Unternehmen ihre Umsätze optimieren, Seuchenforscher die Bewegung von Epidemien prognostizieren und amerikanische Abwehrspezialisten Terroranschläge verhindern. Kurz: Big Data soll die Welt zum Guten wenden. Auf welchen Märkten aber, fragen sich Schweizer Firmenchefs zurecht, generieren die riesigen Daten echten Mehrwert, und welche Technologien sind die Besten? Wo lohnt sich Big-Data-Analytics, wo eher nicht? CW sprach mit Stephen Brobst, CTO von Teradata und Technologieberater von Präsident Barack Obama. Brobst promovierte (Ph.D.) am Massachusetts Institute of Technology (MIT) über Load-Balancing, Resource Allocation und parallele Rechner-Architekturen und hält einen MBA von der Harvard Business School. Das Interview gliedert sich grob in zwei Teile: Im ersten geht es um die Märkte, auf denen der amerikanischen Präsident - mithilfe von Big Data - die Qualität erhöhen und die Kosten senken will. Einige der Blaupausen sind auch für die Schweiz nützlich. Das Leitthema lautet: Was kann man mit Big Data alles machen? Im zweiten Teil geht es um die Technik. Stephen Brobst und CW haben Avantgarde-Technologien wie In-Memory, Business Mobility, Oracles Big Data Appliance und Social Media Analysis kritisch diskutiert. Dabei nimmt der Amerikaner Brobst den deutschen ERP-Weltmarktführer SAP stark unter Beschuss. Aus Gründen der Fairness haben wir deshalb die entsprechenden Interview-Passagen durch Erläuterungen von SAPs R&D-Chef Stefan Sigg ergänzt. Sigg leitet die Entwicklungsabteilung von SAPs High-Speed-In-Memory-Appliance HANA.
CW: Herr Brobst, Sie sind Technologieberater von Präsident Barack Obama. Was haben Sie auf ihrem letzten Meeting mit Obama besprochen?
Brobst: Der Präsident hat mehrere Felder identifiziert, auf denen wir die Lebensqualität von US-Bürgern verbessern wollen. Gesundheitsvorsorge, Erziehung und Ausbildung, Energieversorgung und die Landessicherheit gehören dazu. Die Aufgabe des Beratungskomitees - das bin nicht nur ich allein - besteht darin, Technologie-Investments zu empfehlen. Eine der Empfehlungen, die wir in einem umfangreichen Report schriftlich festgehalten haben, lautet: Jede Bundesbehörde (federal agency) sollte eine Big-Data-Strategie verfolgen.
Ein Beispiel ist Big Data in der Gesundheitsvorsorge, womit ich mich intensiv beschäftige. Die Kosten des amerikanischen Gesundheitssystem steigen schneller als das Bruttosozialprodukt. Langfristig betrachtet ist diese Entwicklung nicht nachhaltig (unsustainable). Der einzige Ausweg, das glauben wir im Beratungskomitee Technologie: Wir müssen die riesigen Datensammlungen im Gesundheitswesen nutzen, um eine bessere Gesundheitsvorsorge zu niedrigeren Kosten hinzubekommen. Beides ist von entscheidender Bedeutung, lediglich die Kosten zu senken reicht nicht.
Nächste Seite: Kosten senken, Qualität erhöhen - wie geht das?
CW: Das klingt wie die Quadratur des Kreises. Wie wollen Sie das erreichen?
Brobst: Nehmen Sie zum Beispiel die Ergebnisse von DNA-Analysen, die es erlauben, die Anfälligkeit für bestimmte Krankheiten zu prognostizieren. Die Prognosen versetzen Sie in die Lage, proaktiv entgegen zu wirken, etwa durch eine Veränderung des Lebenswandels.
CW: Wie verbreitet sind DNA-Analysen in den Vereinigten Staaten zurzeit?
Brobst: Die Kosten für DNA-Analysen sind rapide gesunken. Ich glaube, dass auf eine bestimmte DNA zugeschnittene Medikamente in greifbarer Zukunft liegen. Für die Schweizer pharmazeutische Industrie ist das ein interessanter Punkt.
Sicher müssen langwierige Genehmigungsprozesse durchlaufen werden, aber eine personalisierte Medizin ist definitiv in Sichtweite, also Medikamente für Menschen, die eine sehr ähnliche DNA-Struktur aufweisen. Getrieben wird diese neue Medizin durch verfeinerte Big-Data-Analysen und eine bessere Produktionstechnologie. Eine Schlüsselrolle spielen die Daten.
CW: OK, die medizinischen Behandlungsmethoden werden dadurch besser, aber die Kosten steigen doch auch.
Brobst: Ob die Gesamtkosten steigen ist noch lange nicht ausgemacht. Sicher ist die Produktion der neuen DNA-Medikamente aufwändiger und damit teurer. Aber wenn dem Patienten dadurch die Einweisung in die Notaufnahme erspart bleibt, sinken im Endeffekt wieder die Kosten. Das heisst, der Anteil der Medikamente am Gesundheitsbudget wird steigen, aber der Netto-Effekt auf das gesamte Gesundheitswesen ist positiv, nicht in jedem Einzelfall, aber doch für die klare Mehrheit der Bürger. Vergleichen Sie die Kosten für cholesterinsenkende Medikamente mit den Kosten für eine doppelte Bypass-Operation. Es geht aber nicht nur um Medikamente, sondern um eine kontinuierliche, also tägliche Kontrolle der wichtigsten Gesundheitsparameter etwa für Diabetes-Risikopatienten. Die zu Hause gemessenen Daten werden in einer zentralen Datenbank gespeichert. Heute geht typischerweise jeder einmal im Jahr zum Arzt und lässt sich durchchecken. In den USA ist das so, in der Schweiz wahrscheinlich ähnlich. Das ist aber komplette Zeitverschwendung, wenn Sie schon vor einem halben Jahr ihren Arzt hätten konsultieren sollen und mittlerweise einen Herzinfarkt erlitten haben.
CW: Wie viel Prozent der amerikanischen Bevölkerung haben schon eine DNA-Analyse durchführen lassen?
Brobst: Zurzeit ist der Prozentsatz noch sehr klein. Aber die Wachstumsprognosen schiessen in den Himmel, weil DNA-Analysen erst vor Kurzem sehr kosteneffizient geworden sind. Sie kosten zurzeit einige hundert Dollar, sicher nicht wenig, aber für diese Art der Analyse auch nicht sonderlich viel. Das Problem ist jedoch, dass unser Gesundheitswesen noch nicht bereit ist, persönliche DNA-Patientendaten in die Behandlung einzubeziehen. Die Medizin, also Ärzte und Apotheker, sind im Rückstand und müssen aufholen. Nächste Seite: Wie Big Data den Schweizer Nahverkehr entlastet
CW: Die Schweiz ist ein kleines Land, und immer mehr Menschen wollen hier leben und arbeiten. Das schafft Probleme, der Nahverkehr ist überlastet, Wohnraum wird knapp. Kann Big-Data-Analyse helfen, diese Probleme zu lösen?
Brobst: Transport, Logistik und Städteplanung ist eines der Felder, auf die Präsident Obama sein Augenmerk gelegt hat. Denn viele metropolitanen Grossräume in den Vereinigten Staaten sind mindestens genauso dicht besiedelt wie die Schweiz. Deshalb sind diese Themen auch für uns sehr wichtig. Es gibt zum Beispiel Prototypen von Autos, die mithilfe von Sensoren durch den Stadtverkehr fahren, ohne dass ein menschlicher Fahrer ein Lenkrad drehen muss. Und das Leitsystem findet die beste, schnellste, staufreie Route zum Ziel - durch Daten-Analyse. Fängt es an zu regnen, fährt der Wagen automatisch langsamer, weil sich der Bremsweg verlängert. Fahrer und Leitsysteme haben Zugriff auf ein riesiges Netzwerk von Sensor-Daten und optimieren damit den Verkehrsfluss.
CW: Hier in der Schweiz gibt es schlicht zu viele Autos für zu wenig Strassen. Auch ein noch so cleveres Leitsystem würde diese Problem nicht lösen können.
Brobst: Ja stimmt schon, ein Problem hat immer mehrere Dimensionen. Viele Staus sind aber auch von Menschen verursacht. Stellen Sie sich einen Unfall vor, und jeder Vorbeifahrer drosselt seine Geschwindigkeit, um sich das anzusehen. Ein Software-Leitsystem würde so etwas nicht tun, sondern einfach zügig durchfahren. Glauben Sie mir, die meisten Verkehrsstaus könnten vermieden werden, und die Fahrer hätten weniger Stress.
CW: Wann kommen durch Software gesteuerte Autos in den USA auf den Markt? in zwei, drei Jahren?
Brobst: Das Problem ist nicht die Technik oder der Markt, sondern die Migration hin zu einem durch Software-Leitsysteme gesteuerten Verkehr. Die Kunden würden solche Autos kaufen. Für eine Übergangszeit aber wird es menschliche Fahrer und durch Software gesteuerte Wagen geben, und das Verkehrsverhalten von Menschen ist nicht so rational und vorhersagbar wie das von Software. Ich glaube, und das ist meine persönliche Meinung, dass am Anfang kleinere, ökologisch besonders sensitive Gemeinden nur noch Software-Autos gestatten werden, und menschliche Fahrer müssten ihre Wagen vor den Grenzen parkieren. Ansonsten wären die Investitionen von Kunden, die erst kürzlich einen klassischen Lenkrad-Wagen erworben haben, nicht mehr geschützt. Man kann die Leute nicht radikal von heute auf morgen zwingen, sich umzustellen. Nächste Seite: Was taugen In-memory, Big Data, Analytics?
CW: Lassen Sie uns über Technologietrends diskutieren, die zurzeit in der IT stark gepusht werden, wie zum Beispiel In-Memory-Computing. SAP hat vor etwa einem Jahr seine superschnelle In-Memory-Appliance HANA auf den Markt gebracht. Riesige Datenvolumina in Echtzeit analysieren, das klingt doch sehr verlockend und kompetitiv. Werden In-Memory-Maschinen in Zukunft klassische relationale Datenbanken und Data Warehouses ersetzen, wie SAP das behauptet?
Brobst: Ich glaube nicht, dass SAP plant, relationale Datenbanken zu ersetzen, denn HANA ist eine relationale Datenbank. SAP will traditionelle elektromechanische Speichermedien ersetzen.
CW: Sind Sie sicher, dass in HANA eine relationale Datenbank arbeitet?
Brobst: Ja bestimmt. HANA ist zwar keine klassische, rollenbasierte Implementation einer relationalen Datenbank, benutzt aber relationale Zugriffsmethoden. Da ist aufseiten von SAP viel Marketing mit im Spiel: auch eine analytische, kolumnenorientierte Datenbank bleibt relational, nur das Dateiformat sieht anders aus als bei rein zeilenorientierten Datenbanken. Wir müssen an dieser Stelle etwas vorsichtig sein: Sap hasst Oracle und würde alles tun, um Lösungen zu dirskreditieren, auf denen der Name Larry Ellison steht.
In meinen Augen handelt SAP irrational, und Oracle rational. Dazu muss ich etwas weiter ausholen. Laut Gartner sinken die Speicherpreise alle 18 Monate um 30 Prozent, ganz schön schnell, könnte man meinen. Aber das sind Marketing-Floskeln, und Marketing-Menschen verstehen nichts von Mathematik. Denn jede mathematische Gleichung hat zwei Seiten: die eine Seite der Gleichung sind die Memory-Preise, die andere die Daten. Die Daten aber nehmen im gleichen Zeitraum von 18 Monaten um mehr als 30 Prozent zu. 100 Prozent der Daten ins Memory zu packen ist daher irrational. Die Datenvolumina wachsen schneller, als die Memory-Preise sinken. Oracle handelt rational, nimmt in seiner Exalytics-Appliance nur die 20 Prozent der ganz heissen Daten ins Memory und benutzt dafür den Caching-Mechanismus seiner In-Memory-Datenbank TimesTen.
CW: Im Internet und generell mag diese Rechnung aufgehen, aber gilt das auch für die Daten, die für ein Unternehmen relevant sind?
Brobst: Wenn wir uns auf ERP-Daten konzentrieren, und SAPs Welt ist Enterprise Resource Planning (ERP), dann sind die Zuwachsraten kleiner als 30 Prozent. Die Auftragseingänge wachsen in der Regel nicht um 30 Prozent und mehr, wohl aber die Daten, die ein Unternehmen sammelt, um sein Geschäft besser betreiben zu können. Nehmen wir als Beispiel die Automobil-Industrie. Die Anzahl verkaufter Wagen wächst pro Jahr nicht um 30 Prozent, auch nicht die in einem Einzelwagen verbauten Teile oder die finanzielle Transaktionen, die nötig sind, um den Kauf abzuschliessen. Nächste Seite: Oracle oder SAP - wer hat das bessere Konzept?
CW: Das sind doch Zahlenspielereien. Ein Unternehmen ist doch im Vorteil, wenn es seine Daten, oder einen Grossteil davon, in den Arbeitsspeicher packen und dadurch extrem schnell - schneller als die Konkurrenz - analysieren kann.
Brobst: Nein, ganz im Gegenteil, ein Unternehmen ist im Nachteil. Arbeitsspeicher ist immer noch um den Faktor 10 bis 100 teurer als elektromechanische Speichermedien. Für Daten, auf die sehr häufig zugegriffen wird, wollen Unternehmen einen möglichst niedrigen I/O-Preis, weil sich dieser Preis mit der Anzahl der Zugriffe multipliziert. Diesen niedrigen I/O-Preis bietet In-Memory. Für Daten, auf die seltener zugegriffen wird, streben Unternehmen dagegen den niedrigsten Preis pro Terabyte an, und In-Memory ist keine gute Antwort darauf. Es ergibt keinen Sinn, Daten zu 100 Prozent in den Arbeitsspeicher zu packen, wenn nur 20 Prozent tatsächlich benötigt werden.
100 Prozent, möglicherweise Petabytes, ins Memory zu stecken ist ein sehr teurer Brute-Force-Ansatz, dessen Kosten man mit cleverer Software vermeiden könnte. SAP-Partnern wie Fujitsu oder HP ist das jedoch Recht, sie wollen damit die Abverkäufe ihrer teuren Hardware antreiben. Hardware-Partner stehen deshalb Schlange bei SAP. Antwort von Stefan Sigg (SAP): Wir wollen nicht Petabytes ins Memory packen, das ist ja absurd. Disk-Speichermedien bleiben eine notwendige Komponente unserer Lösung, und SAP bietet die passenden Disk-Technologien dafür an. Zum Preisargument: Wir reden ja nicht über sündhaft teure Kronjuwelen, sondern über Standard-Server, mithin Massenware.
CW: Warum sind sich SAP und Oracle, wie Sie gesagt haben, eigentlich so spinnefeind?
Brobst: Oracle-Chef Larry Ellison ist ein gerissener Hund, der seine Gegner gerne dazu verleitet, etwas Dummes zu tun. Stellen Sie sich SAP als Löwe im Käfig vor, und Ellison nimmt einen Stock und schlägt dem Löwen immer wieder auf die Schnauze, bis der tatsächlich etwas Dummes tut. SAP liegt mit Oracle in einem Bett, die Mehrzahl der SAP-Implementationen laufen auf Oracle-Datenbanken, und das stinkt SAP gewaltig.
Historisch gesehen versteht SAP nichts von Datenbanken, und jetzt fusst ihr ganzes Geschäftsmodell auf In-Memory HANA und Sybase-Technologie. Ich glaube, die Gefahr, dass SAP mit seiner Datenbank-Strategie scheitert, ist extrem hoch. Erfolgversprechender wäre gewesen, mit IBM oder Microsoft zu partnern. Nächste Seite: Oracle und SAP - Blick hinter die Kulissen
CW: Ein Argument, das für mich sehr überzeugend für In-Memory-Datenbanken wie HANA - und gegen Data Warehouses - spricht, sind die sehr zeitaufwändigen ETL-Operationen (Extract, Transform, Load). Ein clever dimensioniertes Data Warehouse kann vielleicht 80 bis 90 Prozent der Anfragen im Unternehmen sehr schnell beantworten.
Kommen aber Anfragen, für die es nicht konstruiert worden ist, wo es versagt und passen muss, dann werden sehr zeitaufwändige Restrukrierungsprozesse (ETL) fällig, und dann ist ein sehr viel flexibleres In-Memory-System klar im Vorteil.
Brobst: Da bin ich völlig ihrer Meinung. Wenn Sie eine Technologie benutzen, die nicht skaliert und wenig performant ist, kommen Sie an Cubes nicht vorbei. Cubes aber werden im Hinblick auf ein bekanntes Set von Fragen konstruiert, die versagen, wenn ein neuer Fragentyp auftauchen. Der Hintergrund ist folgender: SAP ist historisch sehr eng an Oracle und seine Info-Cubes gebunden. Oracles Transaktionsdatenbank ist sehr gut für SAPs ERP-Lösung R/3 geeignet, aber überhaupt nicht für die ganz unterschiedlichen Anforderungen von BusinessObjects Analytics. Das ist einer der Gründe, weswegen SAP ein Problem hat. Oracles Info-Cubes in den Arbeitsspeicher zu verfrachten ist sicher von Vorteil. Aber die Frage ist doch: Kuriert man da die Krankheit oder nur die Symptome. Die Krankheit sind die Cubes, zu denen SAP gezwungen ist. Wir bei Teradata benutzen ein semantisches Layer, welches das Cube-Konzept aufgreift, ohne Cubes physisch zu implementieren, und vermeidet damit deren Nachteile. Antwort von Stefan Sigg (SAP): Stephen Brobsts Sicht ist ein wenig rückwärtsgewandt. Wir bei SAP nutzen keine klassischen, vorkonfigurierte Cubes, sondern Cube-ähnliche Strukturen. Auch Teradata implementiert in seinem semantischen Layer Cube-ähnliche Strukturen. Nächste Seite: Mobility-Trend Consumer Intelligence
CW: Einer der nächsten ganz grossen Trends ist Mobility, zurzeit getrieben durch die riesigen Abverkäufe im B2C-Markt, ich glaube, daran gibt es keinen Zweifel...
Brobst: Mobility im B2B-Markt ist einer der nächsten grossen Trends. Wir bauen Data Warehouses, um die Mitarbeiter eines Unternehmens in ihren Markt-, Finanz- oder Risiko-Entscheiden zu unterstützen, und Mitarbeiter fordern Zugriff über ihre Mobilgeräte. Gartner prognostiziert, dass 2013 mehr als ein Drittel aller BI-Zugriffe über mobile Devices erfolgen wird.
CW: Das ist eine eher optimistische Prognose...
Brobst: Ich finde, sie ist eher zu pessimistisch. Wenn Ende 2013 weniger als zwei Drittel alles BI-Anfragen nicht mobil erfolgen würden, wäre ich sehr überrascht.
CW: Vielleicht in den Vereinigten Staaten...
Brobst: Nein, nein, auch in der Schweiz, in jeder entwickelten Marktwirtschaft, in der Smartphones oder Tablets benutzt werden. Die traditionelle Business Intelligence definiert BI als Infosystem für die Mitarbeiter eines Unternehmens. Ich denke, das gereifte (mature) Data Warehouse eines Unternehmens wird immer häufiger auch von Menschen ausserhalb der Firmen benutzt, und diese Externen werden die Anzahl der Mitarbeiter bald überflügeln. Metro zum Beispiel erlaubt nicht nur ihren Mitarbeitern, sondern auch ihren wichtigen Zulieferern wie Unilever, Procter & Gamble oder Coca Cola Zugriff auf ihr Data Warehouse. Die Applikation heisst Metro Link; Walmart macht das Gleiche. Denken Sie diese Entwicklung noch einen Schritt weiter, dann sind nicht nur Zulieferer und Partner, sondern auch Kunden Teil der Wertschöpfungskette eines Unternehmens, etwa einer Bank. Business Intelligence wird damit zur Consumer Intelligence. Ich nehme gerne Banken, weil sie zu den "early adopters" dieser Technologie gehören.
Als CEO erwarte ich von meinem Data Warehouse Infos zu KPIs wie Umsatz, Kosten und Risiken plus Detailanalysen, Visualisierungstools und so weiter.
CW: In der Schweiz gibt es bereits den Online-Trading-Service Swissquote, der aktuelle und historische Informationen zur Performance von Wertpapieren plus Analysten-Empfehlungen liefert. Auf Swissquote können Privatkunden online auch mit Währungen spekulieren, Schweizer Franken gegen Euro oder japanische Yen. Consumer Intelligence ist in der Schweiz schon angekommen.
Brobst: OK, das zeigt in die richtige Richtung, aber es geht noch weiter. Ich glaube, dass in Zukunft Privatkunden die gleichen Informationen benutzen können wie heute der CEO einer Bank. Bankhäuser werden ihren Kunden die mächtigen analytischen Entscheidungsfunktionen und die Daten ihrer Data Warehouses frei schalten, und die Kunden greifen mobil darauf zu. Lloyds Banking Group und Wells Fargo machen das heute schon, bald werden es alle Kunden weltweit wollen. Auch in anderen Märkten wie im Gesundheitswesen oder in der Energieversorgung wird Consumer Intelligence Einzug halten. Nächste Seite: Was bringt Social Media Analysis Schweizer Firmen?
CW: Lassen Sie uns zu einem weiteren der ganz grossen Technologie-Hypes wechseln: social networking und social media analysis. Wie wichtig sind diese Topics für Unternehmen heute und in naher Zukunft?
Brobst: In sozialen Netzen unterhalten sich die Leute über ihre Erfahrungen mit Fluglinien, Banken oder über ihre Smartphones. Ist es wichtig für ein Unternehmen, zu erfahren, was in der Blogosphäre über seine Produkte erzählt wird? Ganz sicher. Die unternehmerischen Aktivitäten in sozialen Netzen drehen sich heute fast ausschliesslich um Markenbeobachtung (Brand monitoring). Aber das wird sich ändern. Ein Beispiel: Ein Gartner-Analyst mit tausenden von Followern hatte Probleme mit seiner Waschmaschine und setzte einen Tweeds dazu ab: Der Wartungstechniker muss wohl eingepennt sein, denn mir antwortet keiner, so in der Art. Innerhalb von zwei Stunden meldete sich der Hersteller, der die Tweets gelesen hatte, beim Gartner-Analysten.
Interessanterweise gibt es diese Art der Zielansprache (Targeting) nur auf Twitter, nicht auf Facebook. Twitter ist in den Augen der Leute ein öffentliches, Facebook eher ein sensitiveres, privates Medium. Auf Facebook hören die Unternehmen deshalb nur mit. Airlines kaufen sich zum Beispiel durch Gratismeilen in die privaten Accounts ihrer Kunden ein.
CW: Was sind für Sie die technologischen IT-Haupttrends, welche unsere Zukunft prägen werden?
Brobst: Neben dem Trend zur Consumer Intelligence vor allem Big Data, und dort werden die Sensor-Daten explodieren. Die Auswertung dieser Sensor-Daten wird ganz neue Geschäftsmodelle hervorbringen, also Möglichkeiten, Mehrwert zu generieren. Herkömmliche, auf SQL basierende transaktionale Abfragesprachen sind für Sensor-Daten allerdings nicht geeignet. Neue Architektur-Modelle wie Hadoop/MapReduce werden in Zukunft sehr wichtig werden.


Das könnte Sie auch interessieren