Fachbeiträge

Ausgabe 2 / /2012
Fachbeitrag Datentransfer

Alles unter Dach und Fach: Qualität und Integration beim Datenmanagement

von Holger Stelz

Nur auf der Basis von Quartalsentscheidungen ist noch niemand lange am Markt geblieben. Es gilt, auch langfristige Entwicklungen und Wachstumspotenziale im Auge zu behalten und ein Unternehmen danach auszurichten. Moderne IT-Infrastrukturen, Softwarelösungen und Serviceleistungen spielen bei dieser Ausrichtung eine zentrale Rolle. Zugleich gilt: keine IT ohne Daten. Die Daten, die tagtäglich unternehmensweit erfasst und in den Fachbereichen und der Unternehmensführung analysiert, interpretiert und genutzt werden, sind von existenzieller Bedeutung. Zumindest dann, wenn sie den unterschiedlichen IT-Systemen in geeigneter Form zur Verfügung stehen sollen. Ein effizientes Datenmanagement ist dafür unverzichtbar.

Inhaltsübersicht:


Unternehmen müssen heute mit einer ganzen Reihe von Herausforderungen fertig werden. Das Datenvolumen wächst exponentiell, was es Entscheidern immer schwieriger macht, die wichtigen Informationen herauszufiltern. Gleichzeitig beschleunigen sich die Geschäftsprozesse, und immer mehr Unternehmensbereiche müssen schneller und flexibler auf eine gleichsam wachsende Datenmenge zugreifen können. Dabei gilt es, Daten aus heterogenen Quellen, internen wie externen, zusammenzuführen. Diese Daten liegen allerdings weder in einem einheitlichen Format vor, noch besitzen die Datenquellen identische Schnittstellenanbindungen. Hinzu kommt, dass die Anforderungen an die Datenqualität steigen. Ein ganzheitliches und gleichzeitig smartes Datenmanagement tut Not. Unter dem Aspekt langfristig solider Unternehmensentwicklung rückt daher ein Datenmanagement immer mehr in den Fokus, das beide Ansätze – Datenintegration und Datenqualität – miteinander verknüpft und in einer übersichtlichen, flexiblen Lösung bereitstellt.

Nach einer Studie der Züricher intelligent systems solutions (i2s) GmbH stellt bei mehr als einem Viertel der Befragten die Datenqualität die größte Herausforderung dar, wenn es um den Betrieb eines CRM-Systems geht. Den Unternehmen entstehen unnötige Kosten durch inadäquate Daten. Das Spektrum reicht hier von Mailings, die einfach in den Weiten des Netzes verschwinden, wenn Mail-Adressen nicht stimmen, über fehlerhafte Rechnungen oder falsche Rechnungsadressen bis hin zu wichtigen Warensendungen, die den Empfänger nicht oder nicht rechtzeitig erreichen. Hinzu kommen Compliance-Anforderungen, die bei Nichtbeachtung oder fehlerhafter Umsetzung ein Unternehmen teuer zu stehen kommen. Eine Abmahnung wegen unerlaubter Telefonwerbung – weil Privatkunden versehentlich in eine Marketing-Datenbank aufgenommen werden – kann mehrere Tausend Euro kosten. Bei Verstößen gegen Sanktionslisten ist der Schaden noch wesentlich höher: hier kann er sogar die Millionengrenze überschreiten.

Ein weiterer Kostenfaktor sind fehlerhafte und inkonsistente Daten, wenn sie die Ergebnisse analytischer Business-Applikationen verfälschen und so beispielsweise die Effizienz jeder BusinessIntelligence-Lösung stark begrenzen. Durch eine Nachbearbeitung entstehen weitere Kosten. Um diese Risiken im Sinne eines verantwortlichen Compliance-Managements zu minimieren, müssen Lösungen eingesetzt werden, die den Anforderungen und der Komplexität der jeweiligen Geschäftsprozesse Rechnung tragen. Die Bandbreite der Aufgaben reicht hier von der periodischen Integration und Qualitätssicherung bei kleineren externen Datenbeständen bis hin zum kontinuierlichen Monitoring und der Synchronisation heterogener Daten aus unternehmensweiten Systemen. Sinnvoll ist also eine modular aufgebaute, skalierbare Lösung, die eine ganzheitliche Sicht auf den gesamten Datenlebenszyklus ermöglicht, ohne die Bedürfnisse des Unternehmens aus den Augen zu verlieren. Hier setzt professionelles Datenmanagement an.

Datenmanagement in vier Szenarien

Egal ob bei der Optimierung von ERP-, CRM-, eBusiness- oder Legacy-Systemen, ob bei Datenübernahmen in Mergers- und Akquisitions-Projekten, beim Aufbau und Betrieb eines BusinessIntelligence-Systems oder bei der vermeintlich einfachen Zusammenführung und Konsolidierung verschiedener Systeme aus einer heterogenen Systemlandschaft – Datenqualität und Datenintegration spielen in einer Vielzahl von Unternehmensanwendungen und prozessen eine zentrale Rolle. Eine Datenmanagement-Lösung muss in der Lage sein, sie alle abzubilden.

Alle Datenmanagement-Projekte lassen sich prinzipiell einem der folgenden vier Szenarien zuordne

  • DataQuality-Initiativen
  • Datenintegration
  • Datenmigration und -konsolidierung
  • Datensynchronisation.

 

DataQuality-Initiativen: Fit for use

Die Grundlage für optimierte Abläufe in einem Unternehmen sind glaubwürdige, das heißt in allen Aspekten belastbare Unternehmensdaten. Dabei kann gerechter Weise nicht zwischen guten und schlechten Daten unterschieden werden. Wichtig ist, dass sich die Daten für den gedachten Zweck eignen, also „fit for use“ sind. Doppelte und fehlerhafte Datensätze im Unternehmen hemmen indes die Geschäftsprozesse und stellen auf diesen Daten beruhende Aussagen und Entscheidungen in Frage. Geeignete Datenmanagement-Lösungen sorgen dafür, die notwendige Datenqualität in allen operativen oder analytischen Business-Applikationen sicherzustellen. Wichtig dabei ist, dass eine einmal erreichte Datenqualität auch regelmäßig überwacht und stetig sichergestellt wird. Datenmanagement-Lösungen müssen also über Monitoring-Funktionalitäten verfügen, die bestehende, interne Datensätze, aber auch externe Daten überprüfen, entweder „on the fly“ oder periodisch.

Datenintegration: Extract, Transform and Load

Oft besteht die IT-Landschaft in Unternehmen aus einer über die Jahre gewachsenen Struktur aus heterogenen IT-Systemen. In einer solchen Umgebung besteht sowohl für operative wie für analytische Anwendungen häufig der Bedarf, Daten aus unterschiedlichen Systemen in einem Zielsystem zusammenzuführen. Hier müssen Daten aus Quellsystemen extrahiert werden und nach einem Transformationsprozess in ein Zielsystem geladen werden. Die Integrationsbedürfnisse reichen dabei von der Zusammenführung einzelner, spezifischer Daten bis hin zur parallelen Bearbeitung riesiger Datenbestände, die in Integrations-Workflows abgebildet werden müssen. Dies betrifft DataWarehouse-Systeme als Basis für Business Intelligence oder für Corporate Performance-Management ebenso wie die Zusammenführungen operativer Bewegungsdaten aus Kundensystemen.

Datenobjekte werden in unterschiedlichen Systemen, aber oft in abweichenden Formaten gespeichert – das kann an unterschiedlichen Normen zur Speicherung von Daten liegen oder an abweichenden Datenstrukturen, zum Beispiel bei Finanz-, Personal- oder Vertriebsdaten. Eine einfache Zusammenführung durch den reinen Vergleich von Zeichen reicht nicht aus. Hier ist vor der Speicherung der Daten im Zielsystem ein entsprechender Transformationsprozess durchzuführen, der die Daten standardisiert. Eine effiziente Datenintegrationslösung muss daher in der Lage sein, aus den bestehenden Daten und Metadaten der Quell- bzw. Zielsysteme Transformationsregeln abzuleiten. Sie muss außerdem über Konnektoren für den direkten Zugriff auf die Quellsysteme (Dateien, Datenbanken und Applikationen wie z. B. CRM oder ERP) verfügen. Außerdem sollte sie Metadaten über die Syntax und Semantik von Quell- und Zieldaten ermitteln und zusammen mit den Workflows der Datenintegration in einem gemeinsamen Repository speichern können, um wiederkehrende Datenintegrationsprozesse zu beschleunigen.

Will man wirklich effiziente Datenintegrations-Workflows einrichten, muss man allerdings dafür Sorge tragen, dass nur saubere Datensätze vorliegen, das heißt, frei von Fehlern und Dubletten. Nur dann ist gewährleistet, dass auch die Daten im Zielsystem fehlerfrei und konsistent sind – zumal sich die Probleme im Zielsystem durch die Übernahme von Daten aus mehreren unbereinigten Quellen noch vervielfachen. Datenintegrationslösungen müssen daher mit Funktionalitäten zur Herstellung und Sicherung von Datenqualität kombiniert werden.

Alte Lasten und aktuelle Herausforderungen: Migrations- ,Konsolidierungs- und Synchronisationsprojekte

Datenmigrations- und Datenkonsolidierungsprojekte unterscheiden sich funktional kaum von den generellen Anforderungen an klassische Datenintegrationsprojekte. Allerdings ist den erweiterten Ansprüchen im Metadaten-Repository bei der Umsetzung und Einhaltung von Geschäftsregeln und dem damit verbundenen Reporting Rechnung zu tragen. Hinzu kommen bei Datenmigrationsprojekten, beispielsweise im Rahmen von Unternehmensfusionen, Fragen, wie mit den Altbeständen umzugehen ist: Was muss archiviert werden? Welche und vor allem wie viele Daten müssen in die eigenen Systeme übernommen werden?

Dagegen hat man bei der Synchronisation die oft zeitnahen Herausforderungen des Stammdatenmanagements zu meistern. Daten werden dabei entweder unidirektional oder bidirektional abgeglichen. Letzteres ist notwendig, wenn Datensätze in heterogenen Systemen bearbeitet und aktualisiert werden. Beide Seiten haben dann die gleiche Berechtigung, aber womöglich unterschiedliche Referenznummern – zum Beispiel eine Kontakt-ID im CRM und eine Debitorennummer im ERP. Datensynchronisationsmodule müssen in der Lage sein, diese Konflikte zu managen, ohne die Integrität der Daten zu gefährden. Zudem besteht teilweise die Notwendigkeit, die Daten zeitnah abzugleichen (Real-Time), um die operativen Geschäftsprozesse nicht zu beeinträchtigen. Datensynchronisationen sind außerdem häufig sehr komplex, da viele unterschiedliche Datensätze zur selben Zeit abgeglichen werden müssen – eine echte Herausforderung für einen performanten Workflow.

Ganzheitliches Datenmanagement

Ein effektives Datenmanagement-Konzept deckt all diese Szenarien ab und bietet Lösungen für nahezu alle Aufgabenstellungen. Es gewährleistet die Qualität von Daten in allen Phasen des Datenlebenszyklus und implementiert alle dafür notwendigen Datenqualitätsfunktionen (Analyse, Standardisierung, Cleansing, Matching, Monitoring und Anreicherung). Sie bietet umfangreiche ETL-Funktionalitäten für Quell- und Zielsysteme und ist durch Anbindung an alle gängigen Applikationen und Plattformen universell einsetzbar. Workflows lassen sich in solch einer Lösung umfassend abbilden und reproduzieren. Um die analytischen Geschäftsprozesse effizient zu gestalten, werden gemeinsame Metadaten-Repositories angelegt. Veränderte Geschäftsregeln, etwa aus neuen Gesetzen oder internen Regelvorgaben, zu implementieren und zu überwachen, muss ad-hoc ebenso möglich sein wie in periodischen Abständen. Gleiches gilt für die Organisation von Datenqualitäts- und Datenintegrations-Aufgaben.

Gerade umfangreiche Batch-Prozesse sollten aus Performancegründen in einem Scheduler angelegt und automatisiert zu bestimmten Zeiten abgearbeitet werden können. Um all diese Anforderungen zu managen, bedarf es zudem einer einheitlichen und bedienerfreundlichen Arbeitsoberfläche. Außerdem sollte die Datenmanagement-Lösung modular aufgebaut sein. So trägt sie den unterschiedlichen Anforderungen der Anwenderunternehmen Rechnung, und Implementierungs- und Lizenzkosten bleiben auf einem dem Bedarf entsprechenden geringeren Niveau. Bei der Wahl des geeigneten Lösungsanbieters ist auch dessen Beratungsleistung wichtig: Nur wenn er im Vorfeld den Zustand der Unternehmensdaten umfassend analysiert, kann er die aktuelle Datenqualität korrekt ermitteln und so die Grundlage für eine zielgerichtete und erfolgreiche Implementierung einer bedarfsgerechten Datenmanagement-Lösung schaffen.

Erst wenn ein Lösungskonzept all diese Bedingungen erfüllt, lässt sich von einem ganzheitlichen Datenmanagement-Ansatz sprechen. Jedes Unternehmen, das ein umfassendes Datenmanagement betreibt, das etwas zur Steigerung der Datenqualität und zur Verbesserung der Datenintegration tut, wird kurz-, mittel- und langfristig positive Effekte bei Produktivität, Flexibilität und Effizienz beobachten. Denn professionelles Datenmanagement bildet die Basis für gesteigerte Leistungsfähigkeit und ein gesichertes Wachstum.

Diese Artikel könnten Sie auch interessieren

Online Fachbeiträge Ausgabe 1 / 2012
Fachbeitrag       IT-Tools

Hohe Datenqualität – die Basis für den Unternehmenserfolg

Artikel lesen


Online Fachbeiträge Ausgabe 8 / 2013
Fachbeitrag       Big Data

Data Scientists – heiß begehrte Datenexperten

Artikel lesen


Online Fachbeiträge Ausgabe 12 / 2013
Fachbeitrag       Qualitätsmanagement

Kein Prozess ohne Daten – Datenqualität bestimmt die Prozessqualität

Artikel lesen


Online Fachbeiträge Ausgabe 3 / 2014
Fachbeitrag       Big Data

Unternehmenssteuerung braucht ein strategisches Informationsmanagement

Artikel lesen


Online Fachbeiträge Ausgabe 4 / 2014
Fachbeitrag       Best Practice

Data Warehouse: Allgäuer Zeitung mit einheitlicher Datenbasis

Artikel lesen


Unsere Empfehlungen