22.06.2012, 10:00 Uhr

IT verändert Geschäft und Gesellschaft

Technologie wird für Gesellschaft und Wirtschaft immer wichtiger. IBM Research ermittelt im Global Technology Outlook alljährlich, welche IT-Trends die Welt verändern können und diskutiert diese mit Kunden. Dieter Jäpel spricht darüber.
IBM-Wissenschaftler blicken in die Zukunft (Bild: IBM Research)
Der diesjährige Global Technology Outlook (GTO) steht ganz im Zeichen von Big Data und Analytik. IBM erwartet, dass Unternehmen in Zukunft wesentliche Effizienzsteigerungen realisieren können, indem sie die relevanten Daten, die intern, aber auch extern anfallen sprichwörtlich «entdecken», analysieren und für bessere Geschäftsentscheidungen nutzen. Ob es sich dabei um Mitarbeitereffizienz, IT-Effizienz oder Kundenbetreuungseffizienz handelt, die Basisprinzipien sind die gleichen. Noch vor 20 Jahren haben Versicherungsunternehmen allabendlich ihre Server heruntergefahren. Von solchen Verhältnissen sind wir heute weit entfernt. Denn Ärzte müssen natürlich auch nachts die Daten auf den Chipkarten der Versicherer verifizieren können. Die Bedeutung der Computer ist heute so zentral, dass es nicht immer offensichtlich ist, in welche Bereiche die Technologie hineinspielt. Gutes Beispiel ist die jüngste IT-Panne im Kassensystem des Detailhändlers Coop. Um Ausfälle zu verhindern, müssen Infrastruktur und IT permanent überwacht werden. Das kostet Leistung, da immense Datenmengen anfallen. Nur so lässt sich allerdings die Ursache für einen Defekt ermitteln und die Störung schnell beseitigen.

Technologie weckt Erwartungen

Zusätzlicher Workload entsteht durch die Anforderung, dass Ergebnisse immer mehr nahezu in Echtzeit geliefert werden müssen. Die Rega-App ist ein extremes Beispiel: Per Schieber auf dem iPhone-Bildschirm signalisiert der Verunglückte, dass er Hilfe benötigt. Dabei stellt die App erstens eine Sprechverbindung her und verschickt zweitens noch diverse Daten. Dabei wird ausgenutzt, dass im Smartphone Kontaktinformationen gespeichert sind und dass das Gerät eine Ortungsfunktion besitzt. «Wenn der Benutzer der App den Zugriff auf sein Telefon erlaubt, hat er aber auch die Erwartung, dass im Notfall sämtliche Daten übertragen werden – selbstverständlich sofort», betont Dieter Jäpel, der als Technologie-Berater am Industry Solutions Lab bei IBM Research – Zürich arbeitet. Allerdings werde eine sofortige Reaktion nicht nur am Berg, sondern auch im Alltag erwartet. Wer einen Vertrag per E-Mail verschickt, kann gleich nach dem Senden mit dem Empfänger über das Dokument sprechen und Änderungen abstimmen. Nächste Seite: Menschen im Zentrum Ein Trend der nächsten Jahre ist laut IBM Research die Personenfokussierung durch IT. Technologie-Experte Jäpel spricht vom «Systems of People». Wie bei der Rega-App ist ein Aspekt dieses Trends, dass Menschen nicht grundlos mit Systemen interagieren. Wenn Personen Informationen über sich im Netz veröffentlichen, hegen sie dabei eine Erwartung. Sie erwarten, dass das System sie kennt. Zum Beispiel soll das Stellenportal nur Jobs vorschlagen, die zum Profil des Kandidaten passen.

Wettstreit der Bankberater

Jobbörsen und einige andere Dienstleister haben bereits erfolgreich Geschäftsmodelle auf den persönlichen Daten und Personennetzwerken aufgebaut. Ein extremer Fall ist die deutsche Fidor Bank: Hier wetteifern die Kundenberater miteinander um die lukrativsten Kunden. Anhand von Forendiskussionen, Blogs und Meinungsäusserungen können sich die Berater den Kunden andienen. Der Anleger kann dann entscheiden, wem er sein Geld anvertraut und einen persönlichen Kundenberater aussuchen. Allerdings entsteht so laut Jäpel ein Wettstreit unter den Bankangestellten. Wenn ein Berater alle lukrativen Kunden auf sich zieht, müssen die anderen ganz schön strampeln, um auch noch Umsätze zu generieren.
Systems of People geht jedoch über personalisierte Systeme hinaus. Nachdem die letzten Jahrzehnte von einer IT-unterstützten Optimierung von Prozessen geprägt waren, kündigt sich nun eine Phase von IT-unterstützter Optimierung von Personennetzwerken an. Dies wird insbesondere innerhalb Unternehmen bedeutsam, denn man weiss zu wenig über das tatsächliche Verhalten der eigenen Mitarbeiter und innerhalb von Teams. Unter welchen Bedingungen mit welchen Kunden erbringen sie etwa ihre Höchstleistungen? Welche Incentives sind wirklich ein Anreiz für einen spezifischen Mitarbeiter? In welchen Teams brillieren sie? Das sind Fragen, die heutige HR-Datenbanken nicht beantworten können. Social Media, Kollaborationstools und die Nutzung von Analytik eröffnen jedoch neue Möglichkeiten, um die optimalen Umgebungen zu gestalten und das Personalmanagement zu verbessern. Viele Firmen haben laut Jäpel grosses Interesse daran, die Technologie intern zu nutzen. Ein Beispiel hierzu: Vor einigen Jahren hat IBM bei einer weltweit tätigen Firma den internen E-Mail-Verkehr analysiert. Dabei wurde nicht auf den Inhalt der Nachrichten geschaut, sondern ausschliesslich wer wem etwas sendet. Die Analyse ergab, dass ein grosser Anteil von überregionalen E-Mails lediglich durch eine Handvoll Mitarbeiter weitergeleitet wurde. Das Unternehmen animierte seine Belegschaft daraufhin, E-Mails direkt mit den betreffenden Endkontakten auszutauschen und diesen Kontakt aktiv zu suchen. Dies führte zu einer erheblichen Effizienzsteigerung. Ein grosser Hemmschuh der Systems of People ist nach den Worten von Jäpel das Fehlen von Standards und Schnittstellen zu den unterschiedlichen Anbietern. Anders als zum Beispiel bei E-Mail mit POP3 und IMAP, bei Kontaktdaten mit vCards sowie Termindaten als vCal müssen für Social Media noch jeweils separate APIs und Definitionen pro Anbieter verwendet werden. Angesichts des grossen kommerziellen Interesses an der Verwendung von «sozialen» Daten werden vergleichbare Standards aber schnell entstehen, ist sich der IBM-Wissenschaftler sicher. Nächste Seite: Datenberge bezwingen Eng verknüpft mit den Systems of People ist die künftige Herausforderung, mit grossen Mengen unstrukturierter Daten umgehen zu müssen. Anwender produzieren täglich neue, in den Archiven der Unternehmen liegen weitere Informationen teils ungenutzt herum. Hinzu kommt die Schwierigkeit des «Managing uncertain data at scale», wie IBM Research einen weiteren Trend nennt. Schon 2015 wird erwartet, dass 80 Prozent der digitalen Daten mit Unsicherheiten behaftet sein werden, etwa durch die Zunahme an unstrukturierten Daten, sprachliche Mehrdeutigkeiten, Messfehler, prozess- oder modellbedingte Ungenauigkeiten. Nicht nur für die Auswertung dieser Daten braucht es neuartige Methoden auch in der Kanalisierung und der Regulierung gibt es Tücken.
Laut Berater Jäpel berichten Bankangestellte, dass ihre Unternehmen täglich Logfiles mit Volumen mehrerer Gigabyte schreiben. Diese Daten werden vorsorglich gesichert, weil die Finanzinstitute teilweise die gesetzlichen Bestimmungen zur Speicherung (noch) nicht kennen. Die Verantwortlichen wollen auf der sicheren Seite sein, wenn der Gesetzgeber im Nachhinein verlangt, dass Unternehmen Daten bereitstellen müssen. Die rasante Zunahme an verfügbaren Daten und deren Auswertungsmöglichkeiten verstärkt den Bedarf an Systemen, die unterschiedliche Analyseprozesse zusammenführen und auch für technische Laien gemanaged werden können. Dieses ist aus IBM-Sicht ein massgeblicher Trend für die Zukunft in der Analytik. Ein Beispiel ist das Rio de Janeiro City Command Center. In diesem neuen Kontrollzentrum werden Ergebnisse aus Bodenanalysen, Verkehrsmonitoring und Wettervorhersage zusammengeführt. So sollen etwa bei starken Regenfällen rechtzeitig kritische Umweltbedingungen erkannt und Hilfseinsätze vorausschauend geplant werden können. Ein Hindernis für das Auswerten grosser Informationsmengen sind die heute noch zu langen Wege für die Daten in Rechenzentren. Soll die Analyse schnell geschehen, benötigen die Bits und Bytes zu lange, um vom Speicher zum Prozessor zu kommen, meint Jäpel. Die Architektur der Systeme muss grundlegend verändert werden. So arbeiten alle grossen Anbieter daran, die Wege zu verkürzen, mit In-Memory oder SSD-Speichern. Nächste Seite: Erdbeben-Versicherung Vor knapp elf Jahren brachte der Einsturz zweier Hochhäuser die grösste Volkswirtschaft der Welt ins Wanken. IBM-Wissenschaftler Jäpel weiss, dass Versicherungsgesellschaften die Auswirkungen der Anschläge in New York City als «Symbolunfall» bezeichnen. Denn der entstandene Sachschaden ist nicht so hoch, als dass der Betrag eine Wirtschaftsmacht wie die Vereinigen Staaten verunsichern könnte. Dennoch hatten die Anschläge vom 11. September 2001 weit reichende Folgen für die Unternehmen jenseits und diesseits des Atlantiks.

Computermodelle für Versicherer

Im Zusammenhang mit Anschlägen und Naturkatastrophen beklagen Rückversicherer, dass eine Absicherung mit klassischen Versicherungsprodukten kaum zu berechnen sind. Nachgedacht wird über eine neue Klasse von Versicherungsprodukten, so genannte Indizes. Jäpel nennt als Beispiel eine Region, die häufig überflutet wird. Soll dieses Gebiet versichert werden, legen die Assekuranzen Grenzwerte fest, die Indizes. Wenn die Regenmenge in dem definierten Gebiet einen Grenzwert überschreitet, wird ein Betrag fällig. Für den Index liessen sich aber auch Bedingungskombinationen festlegen. Laut dem IBM-Forscher enthält aber schon eine einfache Wenn-dann-Verknüpfung eine grosse Unschärfe. Denn womöglich regnet es in Strömen an einem anderen Ort als die Messstation installiert ist. Hier helfen Modelle, in die Parameter wie Abflussmöglichkeiten, Bodenbeschaffenheit oder Regenhäufigkeit einfliessen. Das Modell liefert dann letztendlich einen Wert, der der Index für die Versicherungskalkulation ist. Solche Themen sind bei den hiesigen grossen Assekuranzen oben auf der Agenda, sagt Jäpel.

Homogenität erhöht das Risiko

Allerdings ist die Computertechnologie für die Versicherungskonzerne nicht nur eine Hilfe. Denn aufgrund der allgegenwärtigen Vernetzung bleiben Auswirkungen von Katastrophen nicht mehr lokal. Die Konsolidierung von Rechenzentren trägt ihren Teil dazu bei: Wenn immer mehr Workloads auf immer weniger Systemen verarbeitet werden, maximiert das die Auswirkungen von Defekten. Sind Systeme standardisiert, sind sie natürlich auch anfälliger, warnt Jäpel. Eine homogene Infrastruktur kann mit ein und demselben Angriff lahm gelegt werden. Bei der Diskussion um Cloud Computing bekomme die Resilience – laut IBM Research einer der grossen Trends – eine neue Dimension. Die Architektur von Systemen müsse dahingehend weiterentwickelt werden, dass bei einem Teilausfall oder bei Eintreten eines Risikoereignisses, keine Engpässe entstehen und kritische Prozesse funktionsfähig bleiben. Nächste Seite: Wunschtraum der IT Cloud Computing zielt auf Kostensenkungen durch bedarfsgerechtes Bereitstellen von Ressourcen. Die IT kommt so dem angestrebten Ziel näher, eine direkte Beziehung zwischen der Investition und dem Nutzen für das Geschäft herzustellen. Die IBM-Wissenschaftler bezeichnen diesen Trend als Outcome-based Business.
«Outcome-based Business ist ein alter Traum», sagt Berater Jäpel. Während sich die IT heute häufig noch den Vorwurf gefallen lassen muss, dass sie ein Kostenfaktor ist, soll die Informatik morgen ausweisen, welchen Beitrag sie zum Geschäftsergebnis liefert. Durch Auswertungstechniken lässt sich dem Ziel näherkommen, indem die Relevanz einer Anwendung für das Geschäft abgebildet wird. Ein messbares Aufwand-Nutzen-Profil würde zeigen, wie wichtig etwa eine Lotus-Notes-Anwendung für den Vertrieb wirklich ist und wie viel Zeit und Kosten dafür aufgewendet werden. Outcome-based Business führe auch dazu, dass IT-Dienstleister zunehmend auf Basis des Erreichens von geschäftlichen Zielvorgaben bezahlt werden. Auch wenn die Geschäftsleitung oftmals heute noch uneinsichtig ist, meint Jäpel doch, dass angesichts der Durchdringung aller Wirtschaftszweige mit IT die Diskussion über die Kostenstelle nicht mehr geführt werden dürfte. So nutze es niemandem, wenn die IT-Abteilung nur IT liefert und eine Fachabteilung nur das Geschäft erledigt. Dabei würden keine Synergien entstehen. Für IBM Research ist die IT also auch nicht der einzige Ansatzpunkt für Optimierung – vielmehr ist sie nur ein Produktionselement. Auch Geschäftsprozesse müssen hinterfragt und an die neuen Realitäten adaptiert werden. Nächste Seite: Quiz war nur der Anfang Vor gut 15 Jahren unterlag der amtierende Schachweltmeister Garry Kasparov erstmals einem Computer. Die IBM-Maschine «Deep Blue» war ein Vorgänger des Supercomputers «Watson», der im vergangenen Jahr im Jeopardy-Quiz gegen menschliche Gegner gewann. Diese Technologiedemonstrationen sind laut IBM-Berater Jäpel aber erst der Anfang einer Entwicklung. Zum Beispiel basiert der Computer nur auf Texteingabe und -analyse und liefert heute nur Stichworte, eine Angabe zur Konfidenz oder Relevanz und die ausschlaggebenden Quellen. In Zukunft wird der Rechner befähigt, multimodale Daten einzubeziehen und Dialoge zu führen, um seine Vorschläge und Erläuterungen zu spezifizieren. Eine neue Qualität der Datenanalyse und Interaktion würde damit erreicht.

Computer assistiert dem Arzt

Watson-Technologie wird aktuell häufig mit dem Gesundheitswesen in Verbindung gebracht. IBM hat in diesem Bereich Kunden gewonnen und wird Projekte realisieren. Mit dem US-amerikanischen Gesundheitskonzern Wellpoint arbeitet Big Blue an Dienstleistungen, die Ärzten bei der Diagnosestellung und bei der Wahl der individuell erfolgversprechendsten Behandlungsoptionen assistieren sollen. IBM-Research-Experte Jäpel weiss: Rezepte sind ein gutes Beispiel, wie die IT dem Gesundheitswesen helfen kann. Einerseits sind Formulare nicht standardisiert – Ärzte verschreiben Medikamente teils mit der Hand. Allerdings ist nicht jede Handschrift gleich gut lesbar. Das ist eine Herausforderung auch für die Apotheker. Bei der Dosierung entstehen schlimmstenfalls Anweisungen wie 15 Mal täglich 13 Tropfen – das ist schlicht nicht praktikabel. Wenn hier Computer helfen, ist das zwar ein kleiner Schritt für das Gesundheitswesen, für den einzelnen Patienten aber eine grosse Hilfe.

Über Dieter Jäpel

Dieter Jäpel trat 1986 in die IBM Forschung ein und war seit 2002 als Executive Technology Briefing Manager am Industry Solutions Lab bei IBM Research – Zürich tätig. Das Lab ist ein offener Think-Tank, der Kunden und Interessierten Einblicke in die IBM-Forschung gewährt und in dem Innovationsvorhaben mit Experten diskutiert werden können. Jäpel ist seit kurzem pensioniert. Das Gespräch fand vorgängig statt.



Das könnte Sie auch interessieren