Datenbereinigung 12.12.2011, 05:00 Uhr

Primat der Datenqualität

Garbage in, Garbage out: Fehlerhafte Daten führen zu falschen Entscheidungen, verzögern unternehmenskritische Geschäftsprozesse und verursachen hohe Kosten. Symptome zu kurieren, ist da zu wenig. Die Unternehmen müssen die Ursachen beseitigen.
Unternehmen jeder Grössenordnung kämpfen mit Problemen bei der Datenqualität: Marketingkampagnen mit falschen oder unvollständigen Adressen laufen ins Leere, es werden fehlerhafte oder gar keine Rechnungen ausgestellt, und Ausschreibungen beruhen auf inkonsistentem Datenmaterial. Solche Missstände können viel Geld kosten – ganz zu schweigen vom Imageverlust. Marktforscher schätzen, dass ohne formelles Datenmanagement bis zu 25 Prozent der Kundendatensätze Fehler aufweisen. Die Folgekosten können im Extremfall zwischen 8 und 12 Prozent des Umsatzes betragen. Qualitätsprobleme in den Daten haben die unterschiedlichsten Ursachen. Viele Fehler gelangen nach wie vor über die manuelle Eingabe in die Unternehmenssysteme: etwa wenn sie aus Briefen und Listen übernommen oder bei Telefonaten und Besprechungen mit Kunden oder Lieferanten zwischendurch erfasst werden. Weitere Fehlerquellen sind Webportale, Selfservice-Umgebungen und der automatische B2B-Austausch. Die Kontaktpunkte, über die Daten anfallen, wurden in den letzten Jahren immer komplexer, und die Fehlerquellen haben entsprechend zugenommen. Das erschwert die Einhaltung von Regeln und Datenqualitätsstandards und damit auch die Sicherstellung der Datenintegrität. Aber auch bei den bereits vorhandenen Beständen kommt es immer wieder zu Inkonsistenzen. Aufgrund unterschiedlicher Kontaktkanäle zu Kunden und wild wuchernder Applikationsarchitekturen liegen Kundendaten in den unterschiedlichsten Applikationen vor. Die Daten werden jedoch oft nur in einer Applikation aktualisiert, was wiederum zu unterschiedlichen Versionen führt. Lesen Sie auf der nächsten Seite: Bestandsaufnahme der Datenqualität Bestandsaufnahme der Datenqualität Ob die vorhandenen Bestände den Anforderungen an eine hohe Datenqualität genügen, lässt sich anhand allgemein akzeptierter Kriterien feststellen. Dazu zählen Aktualität, Eindeutigkeit, Einheitlichkeit, Genauigkeit, Konsistenz, Korrektheit, Redundanzfreiheit, Relevanz, Verständlichkeit, Vollständigkeit und Zuverlässigkeit. Ein solcher Qualitätscheck beginnt mit einer Bestandsaufnahme, bei der festgestellt wird, welche Daten in welcher Güte im Unternehmen vorliegen. Dies ist auch eine Aufgabe der Fachabteilungen, denn sie haben durch die alltägliche Arbeit einen guten Einblick in die Auftrags-, Finanz-, Kunden-, Material-, Produktions- sowie Rechnungsdaten etc. – und die hier immer wieder auftretenden Problemfälle. Anzustreben ist, dass sich das gesamte Unternehmen der Data Governance annimmt. Firmen, die sich bereits sehr intensiv mit dem Thema befassen, benennen dafür einen Verantwortlichen, der sich beispielsweise «Data Steward» nennt und in der Regel direkt an den CIO berichtet. Lesen Sie auf der nächsten Seite: Fehlerbereinigung an der Quelle Fehlerbereinigung an der Quelle Datenmanagement muss frühzeitig ansetzen, damit nicht aus kleinsten Qualitätsproblemen grosse werden. So wie ein verschmutzter Fluss das Wasser eines ganzen Sees kontaminiert, kann ein einziger defekter Datensatz zahlreiche Systeme infizieren. Je länger Unternehmen mit der Berichtigung wartet, desto gravierender sind die Auswirkungen.Die Fachabteilungen leisten bei der Fehlersuche einen wichtigen Beitrag, aber sie finden meist nur das allzu Offensichtliche. Wichtig ist ergänzend dazu ein grundsätzliches Durchleuchten der Unternehmensdaten. Dies ist die Aufgabe von Data Profiling, auch als Data Discovery bezeichnet. Data Profiling erstellt Auswertungen zum Einsatz von Unternehmensdaten: Wie und von wem wurden sie erstellt? Welche Benutzer greifen am häufigsten zu? Für welche Zwecke werden sie eingesetzt? Hier kommen beispielsweise Tools wie iWay Data Profiler von Information Builders zum Einsatz. Profiling erleichtert es, den Status der Daten einzuschätzen, Fehler zu ermitteln, zu priorisieren, zu korrigieren und die Ursachen von Qualitätsproblemen zu beheben. Ist erst einmal ein Profil erstellt, kann ein Unternehmen durch die laufende Überwachung profilbezogener Parameter frühzeitiger auf Qualitätsprobleme reagieren. Lesen Sie auf der nächsten Seite: Verbesserung der Datenqualität Verbesserung der Datenqualität Das Datenqualitätsmanagement betrifft sowohl die Bewegungs- als auch die Stammdaten. Bewegungsdaten beschreiben betriebswirtschaftliche Vorgänge wie Auftragsbearbeitung, Fertigung, Lagerzu- und -abgänge, Rechnungen, Zahlungseingänge etc. Die Bewegungsdaten beziehen sich auf Stammdaten und sind von diesen abhängig. So kann logischerweise kein Auftrag ohne einen Kunden existieren. In den Geschäftsprozessen entstehen immer neue Bewegungsdaten, deren Volumen ständig anwächst. Weit weniger häufig ändern sich Stammdaten wie Artikel beziehungsweise Produkte, Lieferanten, Kunden, Mitarbeiter, Standorte oder Geschäftseinheiten. Die Fähigkeit von Unternehmen, flexibel auf veränderte Kunden- und Geschäftsanforderungen reagieren zu können, hängt entscheidend davon ab, dass applikations- und geschäftsprozessübergreifend genutzte Stammdaten konsistent und fehlerfrei zur Verfügung stehen. Eine leistungsfähige Auftragsabwicklung braucht akkurat deklarierte Stammdaten für Aufträge, Artikel, Lieferanten und Kunden. Im Idealfall liegen die Daten in einem Master-Data-Management-Katalog konsistent für das gesamte Unternehmen vor. Das Gleiche gilt für den Einkauf oder die Finanzbuchhaltung. Die Stimmigkeit der Stammdaten ist für den Unternehmenserfolg essenziell. Die technologische Grundlage einer hohen Datenqualität muss durch die IT-Abteilung gewährleistet werden. Sie benötigt dazu Tools, um die Datenqualität in den Quellsystemen zu verbessern und ein nachhaltiges Datenqualitätsmanagement aufzubauen. Dabei ist der Fokus auf die Quellsysteme von entscheidender Bedeutung. Lesen Sie auf der nächsten Seite: Fazit: Langfristig denken Fazit: Langfristig denken Zusammenfassend bleibt festzuhalten: Die Einhaltung und Absicherung einer hohen Datenqualität lässt sich nicht mit einem einmaligen Projekt erreichen. Wo immer möglich, sollte eine automatische und kontinuierliche Überprüfung bereits bei der Dateneingabe (Syntax und Semantik) erfolgen. Ist kein permanenter automatischer Check möglich, muss zumindest alle zwei bis drei Monate eine manuelle Kontrolle erfolgen. Im Idealfall folgen das Datenqualitätsmanagement und die Einhaltung der Datenqualität (Data Governance) einem Kreislaufmodell (siehe Grafik). Notwendig sind eine systematische Analyse inklusive Datenbereinigung, die Datenkonsolidierung, die Überwachung der Datenintegration sowie eine permanente Überprüfung der Datenqualität im Hinblick darauf, ob die internen sowie externen Regeln und Vorschriften zur Einhaltung der Datenqualität befolgt wurden. Eine dauerhaft hohe Datenqualität lässt sich nur durch ein systematisches, unternehmensweites Vorgehen erzielen. Zum Autor: Urs Neeracher ist Country Manager bei Information Builders Schweiz (www.informationbuilders.ch) Datenqualität und Compliance Bislang erschien die Datenqualität nur als eine Herausforderung für die IT. Das Management eines Unternehmens hat sich dafür oft nicht interessiert. Externe Faktoren wie Governance, Compliance (Basel II/III) und Risikomanagement zwingen jedoch das Management, sich mit der Qualität von internen Daten und Berichtsprozessen auseinanderzusetzen, um gesetzliche Anforderungen umsetzen zu können. Hier ist die IT gefordert. Sie muss diese Anforderungen in Prozessen abbilden, die erforderlichen Schnittstellen und den Datenfluss definieren, die benötigten Tools implementieren, die unterschiedlichen Berichtsdimensionen festlegen und nicht zuletzt die fortlaufende Überwachung, Sicherung und Optimierung der Datenqualität (Data Governance) sicherstellen.

Das könnte Sie auch interessieren