26.07.2013, 06:00 Uhr

Entwickeln für Big Data

Software-Entwickler müssen künftig über den Tellerrand der reinen Funktionalität hinausschauen. Um Unternehmens-entscheidungen auf der Basis relevanter Daten treffen zu können, sind die entsprechenden Fragen bereits vor der Software-Entwicklung zu stellen.
Software-Entwickler müssen künftig über den Tellerrand der reinen Funktionalität hinausschauen
Der Autor leitet "Technology Schweiz" bei Accenture. Die fortschreitende Digitalisierung gibt Unternehmen heute die Chance, sich in eine erkenntnisbasierte Organisation zu verwandeln. Wird die daten­basierte Entscheidungsfindung Teil der Unternehmenskultur, steigert dies die Rationalität und Effektivität des gesamten Handelns – und zwar nachhaltig. Wo stehen wir auf dem Weg dahin? Es mangelt heute weder an adäquater Rechenleistung für Auswertungen noch an einer überwältigenden Menge an Daten. Nachdem die meisten CIOs bereits die ersten Schritte in Richtung Datenanalyse gegangen sind, merken sie jedoch vielfach, dass sie einfach noch nicht über die richtigen Daten verfügen. Jüngst ermittelte das Marktforschungsunternehmen Coleman Parks in einer Umfrage, dass 25 Prozent der CIOs glauben, sie hätten nicht die Daten, die sie eigentlich brauchen.

Daten als Entwicklungsparameter

Unsere IT-Welt basiert auf Software, die Daten zur Unterstützung ihrer Funktionalität produziert. Daten entstehen heute dort, wo sie notwendig sind, damit eine Anwendung ihren Job erledigen kann. Viele Unternehmen haben das erkannt und versuchen, diese Daten zu sammeln. Doch dies geschieht notwendigerweise zufällig, je nachdem, welches Material eine Anwendung zur Verfügung stellt. Werden die erhobenen Daten dann zu einem anderen Zweck genutzt – etwa um den Preis für eine neue Dienstleistung zu ermitteln –, tun sich oft Informationslücken auf. Damit werden Wettbewerbsvorteile vertan.
Um diese Informationslücken zu schlies­sen, braucht es eigentlich keine neue Technologie. Analytische Methoden sind zur Genüge bekannt. Die wettbewerbsentscheidende Bedeutung von Daten muss vielmehr bereits vor ihrer Erhebung nachvollzogen werden. Der Datenzyklus gleicht einer Wertschöpfungskette, die von Anfang bis zum Ende strategisch gestaltet wird: Anwendungen werden so aufgesetzt, dass sie spezifische, brauchbare Daten sammeln. Die Bedienoberflächen werden ergänzt, um diese neuen Inhalte deutlicher anzuzeigen. Das Sammeln der richtigen Daten steigt zu einer wichtigen Anforderung des Software-Beschaffungsprozesses auf. Roadmaps für die IT-Systeme in einem Unternehmen integrieren all diese Schritte idealerweise bereits vor der Implementierung neuer Software. Lesen Sie auf der nächsten Seite: die richtigen Fragen

Die richtigen Fragen

Die Datenwertschöpfungskette beginnt mit den richtigen Fragen: Welche Antworten brauchen wir, die uns bei zentralen Business-Entscheidungen effektiv weiterhelfen? Die Bedeutung dieses Schrittes ist nicht zu unterschätzen. Wie viele Abteilungsleiter können tatsächlich konkret formulieren, mit welcher Information genau sie ihr Geschäft voranbringen können? Gut aufgestellte Unternehmen entwickeln formale Prozesse, um solch strategische Fragen systematisch zu besprechen, aufzunehmen und mit bestimmten Datenanforderungen in Einklang zu bringen. Diese werden dann an die IT-Teams weitergeleitet, aber auch an Partner und Software-Hersteller. Letztere stehen damit vor der Herausforderung, nicht mehr nur Anforderungen an die Funktionalität einer Software, an ihre Sicherheit und die Leistungen in ihr
Angebot zu integrieren, sondern auch an die spezifischen Daten, die über ihr Produkt erhoben werden können oder müssen.

Die richtigen Quellen

Mit dieser neuen Herangehensweise wird es in vielen Fällen darum gehen, auf welchem Weg die besten anfallenden Informationen einzufangen sind. Nicht selten werden Unternehmen die notwendigen Daten aber auch schlicht selbst schaffen. Innerhalb, aber auch ausserhalb der eigenen Organisation finden sich dafür zahlreiche potenzielle Quellen, die allenfalls Nutzen bringen können. Wie können vorhandene Software-Pakete rekonfiguriert oder SaaS-Anwendungen optimiert werden, um die Datenerhebung damit bewusst zu steuern? Gibt es externe Angebote, Daten aus sozialen Netzwerken, Suchmaschinen oder von Nischenanbietern? Mit immer mehr API-Schnittstellen stellen Software-Unternehmen ihren Kunden zudem die Option zur Verfügung, sich gezielt die von ihnen benötigten Inhalte zusammenzustellen und an ihre Systeme anzubinden. Lesen Sie auf der nächsten Seite: Beispiele aus der Logistik

Beispiele aus der Logistik

Bei Neuentwicklungen sollte mindestens genauso viel Gewicht auf das Design des Datensammelns wie auf die Funktionalität gelegt werden. Ford liefert ein gutes Beispiel für eine solche Entwicklung. Das Unternehmen erkannte, dass die Käufer seiner Hybridwagen den elektrischen Antrieb so häufig wie möglich nutzen wollten. Ursprünglich war die Software im Wagen allerdings so gestaltet, dass sie die Elektroenergie nach anderen Parametern einsetzte, etwa nach noch vorhandener Batterieleistung. Basierend auf den eingebauten GPS-Systemen entwickelte Ford einen Algorithmus, der erkennt, wenn sich die Autos nahe dem Wohnhaus bewegen, wo sie schnell wieder aufgeladen werden können. In diesen Szenarien erlaubten die Techniker dem Motor, sich stärker auf Elektroenergie als auf Benzin zu stützen. Zwar nehmen die Kunden den Algorithmus nicht wahr, sie schätzen es aber, mehr mit elektrischer Energie zu fahren und sind letztlich zufriedener mit dem Hersteller.   Gerade solche Technologien, die unter dem Begriff Machine-to-Machine-Kommunikation zusammengefasst werden, werfen interessantes Potenzial auf. Heute noch blinde Punkte auf der Informa­tionslandkarte, reichern künftig immer mehr physische Produkte, Geräte oder Maschinen – mit Sensoren ausgestattet – das Datenportfolio einer Organisation qualitativ und quantitativ an. Das Logistikunternehmen UPS setzt beispielsweise ein Sensorensystem in seinen Lastwagen ein, sowohl um die Lieferungen zu verfolgen, als auch um Strecken und Bewegungen zu erfassen. So fand der Paketlieferservice heraus, dass Linksabbiegen die Zustellgeschwindigkeit reduziert und wegen des Leerlaufs die Treibstoffkosten erhöht. Auf der Basis dieser Informationen änderte UPS seine Standardrouten und sparte 34 Millionen Liter Benzin im Jahr. Wichtig ist es, Partnern und Software-Herstellern das gleiche Verständnis von Daten als Wertschöpfungskette zu vermitteln und systematisch Informationen zu teilen. Ein Supermarkt und ein Lebensmittelhersteller etwa können ihre Lieferkette besser aufeinander abstimmen und auf Konsumentenbedürfnisse reagieren, wenn sie Einsicht in die Daten des Partners erhalten. Ist eine Anwendung auf das Datensammeln getrimmt, geht die Arbeit für den Entwickler weiter: Methoden, die ein schnelles Testen, Up­daten und Rekonfigurieren erlauben, eröffnen dem Business Einsichten darüber, welche ihrer Analysen am besten funktionieren, welche Daten die stärksten sind und wie sie ihre Agilität steigern können.

Wertschöpfungskette für Daten

Das Ausfeilen der eigenen Datenwertschöpfungskette ist ein weiterer bedeutsamer Schritt zur datengetriebenen Unternehmung. Wie bei einem Industriegut beginnt diese Kette mit einer geschäftsrelevanten Intention, die Datenproduktion wird zielgerichtet gesteuert und die Auswertung optimiert. Beispiele zeigen, dass sich bereits eine gewandelte, strategischere Datenphilosophie durchzusetzen beginnt: Nur die richtigen Daten führen zu den richtigen
Erkenntnissen.


Das könnte Sie auch interessieren