2012/1 | Fachbeitrag | Datenqualität

Hohe Datenqualität – die Basis für den Unternehmenserfolg

von Dr. Ch. Klingenberg

Inhaltsübersicht:


Erste Abhilfe bei mangelnder Datenqualität schaffen diverse – und durchaus hochwertige und nützliche – Datenqualitäts-Lösungen. Damit es aber nicht bei einer immer wiederkehrenden Symptom-Behandlung und immer wiederkehrenden Kosten bleibt, muss der Blick auf die Daten tiefer gehen. Die Ursache des Mangels muss gefunden und beseitigt werden. Anbieter und Kunden von Datenqualitätslösungen sollten sich daher über die jeweiligen Anforderungen, die an die Unternehmensstammdaten gestellt werden, im Klaren sein. Was müssen die Datensätze beinhalten? In welcher Form sollen sie dargestellt werden? Welche Business-Regeln müssen eingehalten werden? Was wird systemseitig gefordert? Und besonders wichtig: Gelten in allen Unternehmensbereichen die gleichen Anforderungen oder benötigen der Vertrieb und der Support unterschiedliche Inhalte und Formate?

Die Anforderungen an die Datenqualität sind in jedem Unternehmensbereich andere. Sie wechseln also mit dem Datennutzer. Man spricht hier vom „different view of data“ im Gegensatz zum „single view of customer“, der nur die Daten und nicht deren Verwendung im Blick hat. Das bedeutet auch, dass man per se nicht von guter oder schlechter Datenqualität sprechen kann – entscheidend ist, ob die Datenqualität den jeweiligen Anforderungen der Nutzer gerecht wird, das heißt ob die Daten „fit for use“ sind. Die Rolle des Datennutzers definiert, welche Daten in welcher Form benötigt werden; er steht im Mittelpunkt.

Für die Implementierung von Datenqualitätslösungen heißt das, dass der erste Schritt eine präzise Untersuchung und Darstellung des Status quo der vorhandenen Daten und der an sie gestellten Anforderungen sein sollte.

Datenqualitäts-Check – einen ersten Überblick verschaffen

Ein Datenqualitäts-Check ermöglicht einen ersten schnellen Überblick über die Stammdaten in einem Unternehmen. Dabei wird ein repräsentativer Ausschnitt der Daten primär unter Datenqualitäts-Dimensionen wie Vollständigkeit, Fehlerfreiheit und Eindeutigkeit untersucht. Besonderen Wert legt man auf die Namens- und die Adresselemente: Sind die Namen vollständig (alle „Pflicht“-Felder sind ausgefüllt)? Sind die Adressen postalisch korrekt (gültige Anschriften)? Liegen Dubletten vor – und wenn ja, sind sie gewollt und dahingehend gekennzeichnet oder handelt es sich um Fehler? Die Ergebnisse werden im Anschluss in Form von Statistiken aufbereitet und mit aussagekräftigen Beispielen ergänzt. Das Ergebnis des Datenqualitäts-Checks hilft Unternehmen dann, einen ersten Eindruck über den tatsächlichen Zustand ihrer Daten aus der „Single view of customer“-Perspektive zu erhalten. Der festgestellte Verschmutzungsgrad ist ein Indikator für die Notwendigkeit einer Datenbereinigung – und legt das weitere Vorgehen fest.

Validität unternehmensweit prüfen

Der erste Überblick genügt meist nicht, er ist aber hilfreich, um zu erkennen, wo der größte Handlungsbedarf besteht. Eine fundierte Analyse der Gesamtheit der Stammdaten – von den Datensätzen bis hin zu spezifischen Datenfeldern wie beispielsweise Telefonnummern, Kundenumsatz oder weiterer anhängender Daten – sollte der nächste Schritt sein. Auch die Business-Regeln darf man nicht aus den Augen verlieren – sind sie noch aktuell und relevant beziehungsweise werden sie korrekt umgesetzt? Bevor man in medias res geht, sollten jedoch Analyse-Anbieter, Unternehmensleitung und die Leiter der Fachabteilungen in einem initialen Workshop den Rahmen und die Ziele der Analyse festlegen. Mögliche Diskussionsthemen sind die Datenstruktur, deren Sinngehalt, Konsistenz, Eindeutigkeit, Klarheit und Korrektheit sowie die einflussnehmenden Businessregeln.

Sind die Kriterien und Ziele der Untersuchung festgelegt, kann die technische Analyse erfolgen. Möglichst unternehmensweit wird dann die Belastbarkeit des Datenmaterials überprüft. Daran sollte sich ein weiterer Workshop anschließen, in dem die Analyse-Ergebnisse und erste Vorschläge zur Optimierung der Datenqualität vorgestellt werden. Außerdem können nun noch präzisere und applikationsspezifischere Anforderungen an die Daten definiert werden.

Prozesse analysieren – Schwachstellen aufdecken

Für eine umfassende und zielführende Analyse, gerade bei einer sehr heterogenen IT-Landschaft, kann es sinnvoll sein, noch eine Stufe tiefer in die Datensätze und Systeme einzudringen. Ziel einer solchen Analyse ist es, die Entstehungsbedingungen und -prozesse von Daten aufzuzeigen, um eventuelle Schwachstellen, die zu einer Verschlechterung der Datenqualität führen, erkennen zu können. Das ist besonders hinsichtlich langfristiger Maßnahmen zur Optimierung der Datenqualität relevant. Hier rücken dann auch die einzelnen Datennutzer und deren Bedürfnisse, „different views of data“ in den Mittelpunkt. Daher werden Fragestellungen zur Datenqualität wie Verständlichkeit, Übersichtlichkeit und Zugänglichkeit untersucht, aber auch die Einschätzung der Fachabteilungen und einzelner Datennutzer über die Glaubwürdigkeit und Belastbarkeit ihrer Daten dokumentiert. Anbieter für Datenqualitätslösungen sollten hier über Consultants eng mit ihren Kunden zusammenarbeiten, um gemeinsam die involvierten Systeme und Prozesse besser erkennen und beschreiben zu können. Dieser Ist-Zustand kann dann gegen die vorher ausgearbeiteten idealen Anforderungen an die Datenqualität abgeglichen werden.

Außerdem sollte man den Nutzer bei der Arbeit – Dateneingabe, Datenpflege und Datennutzung – über die Schulter schauen. Im konkreten Anwendungsfall lassen sich Optimierungspotenziale am effizientesten identifizieren. Hier lässt sich auch feststellen, ob die Daten inhaltlich und formal so präsentiert werden, dass die täglichen Aufgaben effektiv durchgeführt werden können. Gerade bei der Analyse und Bewertung der Entstehungs- und Arbeitsprozesse von und mit Daten, ist man als Lösungs-Anbieter und als Kunde auf den Sachverstand und die kommunikativen Fähigkeiten von Consultants angewiesen. Analyse-Software kann da nur ein Hilfsmittel sein.

Fitte Daten auch in der Zukunft

Marketing-Abteilungen beispielsweise legen Wert auf korrekte Anschriften für Mailing-Aktionen, während Support-Mitarbeiter vor allem auf die Aktualität und Vollständigkeit der Daten in den CRM-Systemen angewiesen sind. Wieder andere Abteilungen stellen weitere und andere Anforderungen an ihre Datenhaltungssysteme. Ob die Qualität der Daten gut oder schlecht ist, lässt sich nur mit Hilfe der Datennutzer und nur für ihren speziellen Anwendungsfall feststellen. Nach einer umfassenden Analyse können nun nicht nur Aussagen zum allgemeinen Zustand der Datenqualität gemacht werden – auch die individuellen Anforderungen der Fachabteilungen und die prozessualen Schwachstellen sind bekannt.

Jetzt kann man bewerten, ob Daten „fit for use“ sind. Und erst auf Basis einer solchen Analyse lassen sich wirklich profunde und somit langfristig wirksame Strategien entwickeln, die die Datenqualität dauerhaft und unternehmensweit sichern. Eine weitere Symptom-Behandlung mit Ad-hoc-Lösungen ist dann nicht mehr nötig. Dies spart Kosten für aufwändige Nachbearbeitungen von Daten und gibt finanzielle Planungssicherheit. Außerdem lassen sich auf dieser Grundlage Implementierungskosten für Datenqualitätslösungen senken, da Umfang und Aufwand der Implementierung besser abgeschätzt werden können. So wird auch der ROI schneller erreicht. Als Nebeneffekt kann man zudem belastbare Aussagen über die Effektivität von Arbeitsprozessen treffen – und hier mögliche Einsparpotenziale aufdecken.

Diese Artikel könnten Sie auch interessieren

Public, Private & Hybrid: Das 1x1 des Cloud Computings

WISSENplus
Beim Cloud Computing geht es in erster Linie um IT-strategische Entscheidungen. Erst dann steht die Auswahl der geeigneten Technologie an. Durch das passende Design ihrer IT-Prozesse können Unternehmen mit Cloud Computing die Effizienz ihres IT-Betriebs und die Produktivität der Anwender optimieren, wobei die Sicherheit sensibler Daten einen hohen Stellenwert einnimmt. ...

Weiterlesen

Wissen in der Wolke managen

WISSENplus
Unternehmen nutzen immer häufiger Cloud-basierte externe Services zum Wissensmanagement. Aber was ist zu beachten damit sich der Mehrwert von externen Cloud Services beim Wissensmanagement auch auszahlt? Diese Frage stellen sich derzeit viele Unternehmen und werden dabei mit einer Vielfalt an komplexen Herausforderungen konfrontiert. Auf welche Parameter sollten Unternehmen, die ihr Wissen in der externen ...

Weiterlesen

Information ist (Daten-)Gold für jedes Unternehmen

WISSENplus
Auf rund 40 Zettabyte soll das digitale Universum laut einer IDC-Studie (IDC) bis zum Jahr 2020 anwachsen und auch in Unternehmen wächst die Datenmenge unaufhörlich. Betrachtet man dieses Volumen und die aktuellen Trends hin zu einer immer flexibleren Zusammenarbeit in agilen Projektteams, so erkennt man die riesigen Mengen an unstrukturierten und strukturierten Informationen, die abgelegt werden. Im Schn...

Weiterlesen

Unternehmenssteuerung braucht ein strategisches Informationsmanagement

Bei Entscheidungen auf allen Ebenen, können Unternehmen heute mehr Informationen aus den unterschiedlichsten Quellen nutzen als je zuvor. Die Informationsflut muss dazu in einem geregelten Workflow kanalisiert werden. Notwendig ist daher ein strategisches Informationsmanagement, das die Aufgaben rund um Business Intelligence, Datenintegration und Datenintegrität bündelt, um somit bessere Entscheidungen z...

Weiterlesen

Big Data und seine Bedeutung für das Wissensmanagement

WISSENplus
Kann es sich ein Unternehmen in Zukunft leisten, prinzipiell verfügbare Daten nicht zu beachten und zu analysieren? Angesichts der ständigen Datenflut mag man argumentieren, dass eine Analyse nicht mehr zu leisten sei und damit Ressourcen verschwendet werden, die bei der eigentlichen Wertschöpfung der Unternehmen fehlen. Doch muss man die Frage mit einem klaren „Nein“ beantworten. So wie es sich heut...

Weiterlesen

Moderne Bankensteuerung braucht eine einheitliche Datenbasis

WISSENplus
Schnell verfügbare und möglichst umfassende Informationen sind ein Essential für langfristig erfolgreiche Bankgeschäfte. Angesichts des umfassenden Wandels in der Bankenwelt und der komplexen gesetzlichen Anforderungen, auf die sich Geldinstitute künftig einzustellen haben, wächst das Erfordernis des Wissensmanagements gerade auch für kleinere und mittelständische Banken....

Weiterlesen

Das Datenzeitalter – die Informationsflut als Chance

Seit den 80er Jahren hat die Softwareindustrie zahlreiche Trends hervorgebracht. Viele davon sind genauso schnell wieder verschwunden, wie sie zuvor erschienen waren. Das nun angebrochene Datenzeitalter ist die bisher durchgreifendste – und interessanteste – Zeit des Wandels. Wenn man sich die Unternehmen anschaut, die derzeit ein explosionsartiges Wachstum aufweisen, so stellt man fest, dass bei fast a...

Weiterlesen

Kein Prozess ohne Daten – Datenqualität bestimmt die Prozessqualität

Wir stehen heute an der Schwelle vom rein marktgetriebenen hin zum datengetriebenen Unternehmen. Daten werden immer wichtiger und Information gilt inzwischen mit als wichtigstes Unternehmensgut. Big Data verändert in diesem Zusammenhang die Art und Weise, wie Unternehmen ihre Entscheidungen treffen, denn Big-Data-Analytik kann neue Einsichten geben und bisher unbekannte Strukturen und Verhaltensmuster zum ...

Weiterlesen