Fachbeiträge

Ausgabe 12 / 2013
FachbeitragQualitätsmanagement

Kein Prozess ohne Daten – Datenqualität bestimmt die Prozessqualität

von Holger Stelz, Dr. Wolfgang Martin

Wir stehen heute an der Schwelle vom rein marktgetriebenen hin zum datengetriebenen Unternehmen. Daten werden immer wichtiger und Information gilt inzwischen mit als wichtigstes Unternehmensgut. Big Data verändert in diesem Zusammenhang die Art und Weise, wie Unternehmen ihre Entscheidungen treffen, denn Big-Data-Analytik kann neue Einsichten geben und bisher unbekannte Strukturen und Verhaltensmuster zum Beispiel von Kunden und Interessenten aufdecken. Eine Studie der MIT Sloan School of Management zeigt beispielsweise, dass Unternehmen, die voll auf digitale Technologien setzen, im Schnitt um 26 Prozent profitabler sind als entsprechende andere Unternehmen. 66 Prozent der Befragten der MIT-Studie sagten, sie erreichten einen Wettbewerbsvorsprung durch Analytik.

Inhaltsübersicht:



Datengetriebene Unternehmen erreichen also nachweislich Vorteile. Doch wie gehen wir aktuell mit unseren Daten und der daraus gewonnenen Information um? Wie sieht die Realität eigentlich aus? Hier gilt in zu vielen Unternehmen immer noch die Devise: Unsere Daten sind doch in Ordnung! In Wahrheit sieht es anders aus. Zahlen in verschiedenen Berichten und Dashboards weichen voneinander ab. Treffen von Entscheidungen auf Basis von Fakten? Fehlanzeige! Gleichzeitig steigt unter anderem die Anzahl abgebrochener Transaktionen, weil wichtige Basisdaten fehlerhaft sind, steigt die Anzahl von Stornierungen, weil Kunden falsche Produkte zugestellt bekommen, steigt die Zahl der Retouren, weil die Adressdaten nicht mehr stimmen, und und und. Da wird man hellhörig, denn zumindest sieht man, dass so die Kosten steigen.

Datenqualität – ein ständiges Auf und Ab?

In einer Hauruck-Aktion wird dann oft eine Datenqualitätsmanagement-Maßnahme beschlossen, die jedoch allenfalls auf die Symptome reflektiert, die eigentlichen Ursachen jedoch völlig außer Acht lässt. So wird beispielsweise eine Massendatenbereinigung eingeleitet. Zuerst macht man ein Profiling, um den Datenbestand zu analysieren. Das erlaubt qualitative Aussagen zu den Daten im Hinblick auf ihre Vollständigkeit, Korrektheit und Redundanz. Hat man so die Schwachstellen identifiziert, lässt sich mit der anschließenden Datenbereinigung das notwendige Qualitätsniveau wieder herstellen. In manchen Fällen unterbleibt auch ein vorgelagertes Profiling der Daten und die eigentliche Bereinigung wird direkt gestartet, mit den entsprechenden Konsequenzen. Vielfach wartet man danach, bis wieder Datenqualitätsprobleme auftreten und wiederholt dann die Prozedur ad hoc. Etwas fortschrittlichere Unternehmen wiederholen in einer gewissen vorbeugenden Art und Weise die Bereinigung in gewissen Zeitabständen. Die Datenqualität über die Zeit entspricht so in ihrem Abbild einer Sägezahnkurve. Datenqualität ist nach einer Bereinigung am höchsten und fällt dann mit der Zeit kontinuierlich ab, bis wieder eine Datenbereinigung durchgeführt wird und die Datenqualität so wieder auf den Sollwert gebracht wird – auf, ab, auf, ab.

Optimal ist das nicht. In der Tat, es geht besser, denn Vorbeugen ist besser als Heilen. Und das Prinzip der Vorsorge gilt: Ein Schaden soll erst gar nicht eintreten. Das ist natürlich besonders wichtig im Geschäftsleben: Risiken zu vermeiden, ist besser, als entstandene Schäden nachträglich zu beheben. Denn Risiken vermeiden bedeutet nicht nur weniger Kosten, sondern beispielsweise auch Prozesse, die weiterlaufen und nicht zum Stillstand kommen oder gar abbrechen. Das bedeutet vor allem auch Zeitgewinn. Risiken zu vermeiden, ist das Ziel von Risikomanagement: die (Ab-)Sicherung des Unternehmens.

Mangelnde Datenqualität als Unternehmensrisiko

In diesem Sinne sollte auch das Datenqualitätsmanagement als Risikomanagement zur Sicherung des Unternehmens verstanden werden. Dazu kommt: Datenqualität als Risiko gesehen, lässt sich recht einfach in Geld umrechnen und somit monetär bewerten, denn die Datenqualität bestimmt die Prozessqualität. Falsche Daten in Entscheidungsprozessen bedeuten falsche Entscheidungen. Die Kosten und der Zeitverlust durch falsche Entscheidungen lassen sich Fall für Fall recht präzise im Voraus berechnen. Falsche Daten in operativen Prozessen bedeuten höhere Prozesskosten und langsamere Abläufe. Denn falsche Daten halten Prozesse auf, verhindern Automation, bedeuten Eskalationsmanagement oder Stornos, Retouren bis hin zu Regressansprüchen, die an das Unternehmen gestellt werden. Alles in allem heißt das wieder Kosten und Zeitverlust, die pro Prozess ausgerechnet werden können. Es gilt eben: kein Prozess ohne Daten. Daten treiben und steuern die Prozesse.

Wie betreibt man nun Datenqualitätsmanagement als Risikomanagement im täglichen Geschäft? Ein Lösungsansatz kommt aus dem Total Quality Management: Datenqualität wird von Anfang an und über den gesamten Lebenszyklus von Daten sichergestellt. Datenqualitätsmanagement beginnt bei der Erfassung der Daten und endet erst mit deren Löschung. In der Praxis sieht das wie folgt aus:

Daten fließen aus unterschiedlichen Quellen auf das Unternehmen zu und müssen erfasst werden: manuell durch Mitarbeiter, Partner, Kunden und andere – oder automatisiert über Dokumentenaustausch (Scan- und Fax-Technologien), über elektronischen Datenaustausch (EDIFACT, SEPA etc.), über Maschine-zu-Maschine-Kommunikation (M2M) oder heutzutage natürlich auch über mobile Geräte. Eine Datenerfassung wird in der Regel durch einen Prozess angestoßen oder auch umgekehrt: Ein Ereignis schafft Daten und stößt einen Prozess an. Hier sehen wir noch mal sehr deutlich die Verbindung zwischen Daten und Prozessen.

Total Quality Management von Datenqualität

Im Augenblick der Datenerfassung wird sofort („in Echtzeit“) eine Prüfung der Daten auf Vollständigkeit, Korrektheit und Redundanz vorgenommen. Das geschieht mittels Datenqualitätsservices. Das sind zum einen Services zur (Customer) Identity Resolution. So wird sichergestellt, dass ein neuer Datensatz dem richtigen Unternehmensstammdatensatz zugeordnet wird. So vermeidet man beispielsweise Dubletten im Datenbestand. Denn Identitätsattribute eines Kunden können aufgrund von Übertragungs-, Schreib- und Transskriptionsfehlern voneinander abweichen. Hier gilt es, Ähnlichkeiten zu finden und dann entsprechende Zuordnungen vorzunehmen.

Eine andere Gruppe von Datenqualitätsservices sind Validierungsservices. Das sind Regeln, die beschreiben, wie ein bestimmter Datensatz auszusehen hat. Hier werden die Muss- und Kann-Felder auf ihren Füllgrad geprüft, Datentypen, Wertebereiche, Rechtschreibung und Grammatik untersucht sowie Beziehungen zwischen Attributen und Datensätzen validiert. Eine weitere Gruppe von Datenqualitätsservices ist ein Abgleich gegen spezielle Wissensbasen. Hier geht es darum, im Rahmen eines Matchings sicherzustellen, dass beispielsweise auf internationalem Niveau bestimmte Landesspezifika Berücksichtigung finden, bestimmte Standards zum Beispiel in der Adressierung eingehalten werden oder auch unterschiedliche Zeichensätze verarbeitet werden können.

Geocodierung – lokale Kunden identifizieren

Darüber hinaus werden gerade und vor allem im Zeitalter von Big Data Geocodierungsservices als weitere Facette von Datenqualitätsservices immer wichtiger. Geocodierung bedeutet die Adressbewertung in lokalen Märkten, sprich: Kunden lokalisieren und neue Potenziale erschließen. Das funktioniert folgendermaßen:

  1. Geocodierung des Datenbestandes: Jede Adresse erhält eine Raumkoordinate (x-y-Koordinate).
  2. Fehlerhafte Adressen oder Ortsangaben werden selektiert und mittels Datenbereinigungsservice validiert.
  3. Jeder Adresse kann jetzt zusätzlich eine eindeutige räumliche Raster-ID zugeordnet werden, die eine Vielzahl weiterer Attribute beispielsweise zur Soziodemografie, Kaufkraft, Produktaffinität oder zum Lifestyle liefert. In diesem speziellen Fall sprechen wir dann von Datenanreicherung.

Geocodierung ergänzt also ganz im Sinne der eingangs zitierten Risikovorsorge das traditionelle Datenqualitätsmanagement: Sie wirkt quasi wie ein Profiling, identifiziert Fehler in Adressdaten und bereinigt sie. Gleichzeitig erfolgt eine Anreicherung der Daten, womit sich die Daten wieder für weitere Anwendungen nutzen lassen, wie beispielsweise Clusterbildungen zur Potenzialanalyse.

Datenerfassung als Schlüssel zum Erfolg

Dies alles kann bereits bei der Datenerfassung in Echtzeit erfolgen. Neuen Kunden bzw. Interessenten werden im Hintergrund automatisch die jeweils aktuellen Geoinformationen „on the fly“ zugeordnet. Gleiches gilt für Adressänderungen, die sich aufgrund von Umzügen ergeben. Beim Aufbau von Datenbanken und bei der Migration von Datenbeständen in Data-Warehouse-Projekten ist es notwendig, schon vor dem eigentlichen Ladeprozess der Daten die entsprechenden Geoinformationen zuzuordnen. Insofern können Datenqualitätsservices sowohl mittels On Premise Software als auch mittels SaaS als Cloud Computing Lösung angeboten und konsumiert werden. Das ist Data Quality on Demand oder Data Quality as a Service (DQaaS). Auch eine hybride Nutzung, also sowohl on Premise als auch on Demand, bietet sich an.

Datensätze, die aufgrund der Qualitätssicherung mittels der Datenqualitätsservices fehlerhaft sind und nicht automatisch bereinigt werden können, werden jetzt im Sinne eines geschlossenen Regelkreises in eine Zwischendatenbank geschrieben und eine Fehlermeldung geht an die Quelle der Datenerfassung. Dort wird ein Eskalationsmanagement ausgelöst mit dem Ziel, den Fehler zu bereinigen. Das bedeutet in der Regel einen manuellen Eingriff durch den am Prozess Beteiligten, der die notwendige Expertise zur Korrektur hat. Ist der Datensatz bereinigt, kann er in den Datenbestand übernommen und im Prozess verwendet werden. In der Zwischendatenbank wird er dann entsprechend markiert. Ein Data Quality Dashboard (oder auch einfache Berichte) gibt Auskunft über die Leistung dieses geschlossenen Regelkreises zum Datenqualitätsmanagement. Somit hat man schließlich auch das notwendige Performance Management, um den Regelkreis kontinuierlich zu verbessern, wie es ein TQM erfordert. Das Ergebnis ist eine nahezu konstante Datenqualität auf hohem Niveau. Das stellt gegenüber dem traditionellen Ansatz, bei dem die Datenqualität über die Zeit einer Sägezahnkurve folgte, einen deutlichen Fortschritt dar.

Datenqualität unter die Schirmherrschaft der Geschäftsleitung stellen

Natürlich muss ein solches Datenqualitätsmanagement per TQM auch durch die Organisation unterstützt werden. Bewährt hat sich hier die Einrichtung eines Kompetenzzentrums für Datenqualität, das die koordinierende Stelle im Unternehmen darstellt. Vielfach ist ein solches Kompetenzzentrum dem entsprechenden Kompetenzzentrum für Stammdatenmanagement angegliedert. Das Kompetenzzentrum arbeitet mit den Prozessverantwortlichen eng zusammen, denn die Expertise der an den Prozessen Beteiligten ist notwendig, um im Rahmen von Eskalationsmanagement fehlerhafte Datensätze zu korrigieren. Man bezeichnet diese Mitarbeiter meist als „Data Stewards“. Hier sieht man auch noch einmal deutlich, dass der volle Einsatz aller Mitarbeiter im Datenqualitätsmanagement trotz aller fortgeschrittenen Technologien unabdingbar ist. Das aber geht in der Regel nur, wenn Datenqualität auch Chefsache ist. Ohne einen Sponsor im Vorstand oder in der Geschäftsleitung bekommt man weder Budget noch Motivation der Mitarbeiter, aber viel Ärger im täglichen Geschäft mit Fehlentscheidungen, abgebrochenen Transaktionen und fehlgeleiteten Prozessen.

Fazit

Kein Prozess ohne Daten – Datenqualität bestimmt die Prozessqualität. Daher brauchen Unternehmen ein professionelles Datenqualitätsmanagement, denn die richtige Datenqualität bedeutet einen monetär bewertbaren Vorteil. Ein Datenqualitätsmanagement sollte daher wie ein Risikomanagement angegangen werden und mit Identity Resolution, Validierung, Wissensbasen und Geocodierung die zentralen Datenqualitätsservices beinhalten. Bewährt hat sich ein Ansatz über Total Quality Management: Datenqualität wird gleich bei der Datenerfassung in die Prozesse eingebaut und während des gesamten Lebenszyklus der Daten sichergestellt. Ein geschlossener Regelkreis zum Datenqualitätsmanagement bringt hier die Lösung („closed loop data quality management“). Ein entsprechendes Kompetenzzentrum sollte die koordinierende Stelle für Datenqualität im Unternehmen sein, idealerweise unter der Schirmherrschaft der Geschäftsleitung.

Diese Artikel könnten Sie auch interessieren

Online Fachbeiträge Ausgabe 12 / 2019
Fachbeitrag       Big Data

Daten & Traffic im Griff: So stellen sich Online-Händler auf die Shopping-Saison ein

Artikel lesen


wissensmanagement Heft 5 / 2019
Trends       Wissenswertes

Data Analytics: Use Cases identifizieren & umsetzen

von Dr. Lukas Breuer, Jannik Kutscher

Artikel lesen


Online Fachbeiträge Ausgabe 5 / 2019
Fachbeitrag       Big Data

Self-Service Business-Intelligence: Die Zeit ist reif für datengetriebenes Marketing

Artikel lesen


wissensmanagement Heft 2 / 2019
Trends       Big Data

Knowledge Graph in der Medizinischen Forschung: Das komplexe System „Mensch“ verstehen

von Dirk Möller

Artikel lesen


Online Fachbeiträge Ausgabe 1 / 2019
Fachbeitrag       Big Data

Mit prognostischer Analytik die Zukunft gestalten

Artikel lesen