Fachbeiträge

Ausgabe 8 / /2018
Fachbeitrag Big Data

Data Analytics in der Praxis: 7 erfolgreiche BI- und Big-Data-Projekte

von Stefan Müller

Angesichts sich immer schneller ändernder Rahmenbedingungen ist die Bedeutung von Datenanalyselösungen rapide gestiegen. Unternehmen müssen in immer kürzerer Zeit immer weitreichendere Entscheidungen treffen. Dazu brauchen sie einen verlässlichen Datenbestand, der einerseits alle Informationen der Organisation enthält und andererseits rasch und unkompliziert ausgewertet werden kann. Sieben branchenübergreifende Praxisbeispiele zeigen, wie Unternehmen Daten systematisch analysieren und große Datenvolumen in Echtzeit und mit hoher Qualität verarbeiten können, mithilfe einer offenen Business- und Big Data-Plattform.

Inhaltsübersicht:

1. Ein Data Warehouse für die Bundespolizei

Die Bundespolizei hat ein Data Warehouse aufgebaut, das alle relevanten Daten für die Erstellung der Polizeilichen Eingangsstatistik umfasst. Die Informationen kommen von verschiedenen Quellen aus den 160 Revieren, 80 Inspektionen, 10 Direktionen und dem Präsidium. Im neuen Data Warehouse werden die Daten aufbereitet und qualitätsgesichert. Sie stehen nun innerhalb kürzester Zeit für die Beantwortung von Anfragen aus Parlament, Polizeipräsidium, Bundesinnenministerium, EU und Frontex zur Verfügung.

Vor der Einführung des Data Warehouse erfasste die Bundespolizei die „Polizeiliche Eingangsstatistik“ in mehr als 70 Excelsheets. Die Dienststellen vor Ort trugen jeden statistisch relevanten Vorgang manuell ein und übersandten die Exceltabellen an die übergeordneten Direktionen. Diese führten die Daten nach ihrer Prüfung zusammen und übermittelten sie an das Präsidium. Dort der gleiche Vorgang: Daten prüfen und zusammenfassen, dieses Mal bundesweit. Bis die Daten offiziellen Stellen zur Verfügung standen, dauerte es einen Monat. Nun, durch das Data Warehouse und umfassende Datenintegrationsprozesse, fertigen die Beamten mit wenigen Klicks die Auswertungen an und schicken sie der anfragenden Stelle ohne großen Zeitverzug zu. Die gesamte „Polizeiliche Eingangsstatistik“ mit insgesamt 20 polizeilichen Handlungsfeldern ist im Data Warehouse abgebildet. Aufwendige Scripte gehören der Vergangenheit an.

2. Bosch – Weltweites Projekt-Reporting

Als Globalplayer steuert Bosch mehr als 1.500 Kundenprojekte weltweit. Dafür setzt der Konzern eine unternehmensweite Reporting-Plattform ein. Die Daten stammen aus zahlreichen Quelldatensystemen, unter anderem verschiedenen Telefonanlagen, Zeiterfassungs-, E-Mail- und SAP-Systemen und selbst aus externen Kundendatenbanken. Aus ihnen generieren sich die operativen Kennzahlen für die Projektsteuerung sowie die finanziellen Kennzahlen für das Management. Die Kennzahlen umfassen zum Beispiel eingegangene und beantwortete Anrufe, vom Kunden aufgelegte Anrufe, Umsatz, Kosten und Gewinn – tagesaktuell und pro Projekt. Eine besondere Herausforderung dabei ist, Daten aus unterschiedlichen Quellen so zusammenzuführen, dass einheitliche Umsatz- und Kostenreports daraus entstehen. Neben den Mitarbeitern können auch Zulieferer und Kunden auf das System zugreifen und ausgewählte Reports nutzen. Bei der Auswahl des Software-Systems waren drei Kriterien maßgebend.

  • Anwendungsvielfalt: Sowohl bei der Anbindung von Datenquellen als auch den Ausgabemöglichkeiten sollte der Nutzer viel Spielraum haben.
  • Nutzerfreundlichkeit: Ein Datenbankexperte muss die Software in vertretbarer Zeit beherrschen können.
  • Sicherheitsarchitektur: Die Daten-Plattform soll sich auch für Externe, etwa Zulieferer und Kunden, öffnen lassen, ohne dass Sicherheitsrisiken entstehen.

Bosch hat sich für eine Standardsoftware entschieden, sodass die eigenen Mitarbeiter sie anpassen und weiterentwickeln können.

3. „Deutsche See“ steuert ihr Geschäft mit Datenportal

Der Deutsche Marktführer für Fisch und Meeresfrüchte arbeitet seit Jahren mit einer umfassenden Vertriebssteuerung. Die über 300 Nutzer kommen aus allen Unternehmensbereichen: von der Geschäftsführung und dem Vertrieb über Einkauf, Controlling und Marketing bis hin zu Produktion und Logistik. Für Geschäftsführung und Vertrieb bietet die Datenbank Zugriff auf Verkaufsdaten und andere wichtige Sales-Kennzahlen. In 20 Cubes sowie 300 Dimensionen und KPIs sind alle vertriebsrelevanten Daten – beispielsweise Kunden, Kontaktdaten, Belege oder Artikel mit Mengen und Umsätzen – gespeichert. Diverse Standard-Reportings, vorgefertigte Individualanalysen und die Kundenbesuchsvorbereitung stehen nicht nur dem Außendienst zur Verfügung.

Bedarfsweise lassen sich Daten nach verschiedenen Themenfeldern aufbereiten, etwa nach Kunden, Unternehmen, Verkauf, Service und Markt. Momentan sind 100 Berichte angelegt, weitere sind in Planung. Die Mitarbeiter können auch selbst Berichte erstellen. Da sich Deutsche See für eine Open Source-Lösung entschieden hat, fallen keine Lizenzkosten an. Einer der wichtigsten Vorteile: Gute grafische Darstellungen der Daten haben die bisherigen Exceltabellen abgelöst. Die Verantwortlichen sparen so nicht nur Zeit, sondern können die Daten schneller interpretieren – manchmal auf einen Blick. Zudem können Nutzer Reports wahlweise manuell oder automatisiert verschicken. Alle Berichte lassen sich auch von unterwegs über mobile Endgeräte aufrufen und flexibel zu individuellen Reports zusammenstellen. Seit das Unternehmen zudem ein webbasiertes Reportingportal aufgebaut hat, haben die Mitarbeiter einen zentralen Einstiegspunkt und Arbeitsbereich. Sie greifen immer auf einen einheitlichen und aktuellen Datenbestand zu.

4. STIWAs Lösung zur Anlagenüberwachung: Intelligente Analysesoftware mit Data Warehouse

Wenn Produktionsanlagen in Betrieb genommen oder gewartet werden, muss der Betreiber jede Komponente einzeln und im Zusammenspiel mit den anderen Bauteilen betrachten. Ohne eine innovative Analysesoftware in Kombination mit einer Datenbank ist das kaum machbar. Erst dies stellt in der Produktion die Durchgängigkeit vom Signal bis zum ERP her. Die Bedienung der Anlage und damit alle Maschinen-, Prozess- und Produktdaten müssen automatisch und lückenlos erfasst werden. STIWA hat nun die passende Lösung: ein Datenanalysetool mit integriertem Data Warehouse, dass die Daten nicht nur erfasst und miteinander verknüpft, sondern auch visualisiert und auswertet. Dafür muss die Software in die Produktionsanlagen bis auf Komponentenebene hineinzoomen können.

Solch eine Datenanalyse zahlt sich für STIWA-Kunden aus: Die Anlagenhochlaufzeit bei der ersten Inbetriebnahme wird um zirka 25 Prozent verkürzt, und die Gesamtanlageneffektivität (OEE) nimmt um durchschnittlich 15 Prozent zu. Auch wenn eine Anlage nicht die geforderte Leistung bringt, hilft die gesteuerte Datenanalyse weiter. Ausgehend von der OEE-Kennzahl lassen sich die Ursachen für das Problem immer weiter eingrenzen. So kann der Anlagenleiter entscheiden, ob er die Instandhaltung, die Prozesstechnik oder die Logistik mit der Lösung des Problems beauftragen soll.

5. CERN: Die größte Forschungsinstitution der Welt setzt auf Pentaho

Das CERN ist die größte Forschungseinrichtung der Welt. Die Organisation setzt seit 2014 auf eine einheitliche Datenlösung mit Datenintegration, Reporting, Analytics und Dashboards mit 15.000 Nutzern. Im Business Computing steht das CERN besonders in den Bereichen Datenbank, Business Intelligence und Reporting vor spezifischen Herausforderungen. Seine Datenplattform musste daher an die spezifischen Bedürfnisse der Organisation angepasst werden. Um alle internen Inhalte zu beherrschen, wurde um sie herum eine Infrastruktur aufgebaut. Die vom CERN entwickelten Werkzeuge ermöglichen eine erweiterte Suche und Terminierungsfunktionen, unterstützen die delegierte Verwaltung von Schemata einschließlich Freigabe- und Umgebungsunterstützungsfunktionen, sowie eine Integration mit dem Versionskontrollsystem „Git“. Diese Tools helfen, den Betrieb einer Umgebung mit mehr als 15.000 potenziellen Anwendern sicherzustellen. Die eingesetzte Lösung stellt ein mächtiges Datenintegrations-Tool und Funktionen für Reporting, Datenanalytik und Visualisierung bereit.

Die Tatsache, dass die meisten der Tools als Open Source-Software zur Verfügung stehen, erlaubt den CERN-Entwicklern, den vorhandenen Code einfach zu untersuchen und die eigenen Lösungen darin zu integrieren. Der Umstand, dass Pentaho in Java geschrieben ist, erweist sich als besonders praktisch, da das CERN intern Java beziehungsweise JVM als Technologie für alle Eigenentwicklungen einsetzt. Trotz des ganzen Hypes um Big Data bleiben „simples“ Reporting und Datenvisualisierung für das CERN wesentlich. Deshalb sind die Visualisierungs- und Reporting-Komponenten genauso wichtig wie die Analysefunktionen der Lösung.

6. eurofunk Kappacher: Datenanalyse bei Feuerwehr und Polizei

Leitstellen von Feuerwehr, Polizei oder Rettungsdiensten müssen ihre gesetzlich festgesetzten Reaktionszeiten auf Notrufe überwachen: Wie lange dauert es, bis ein Anruf von einer Leitstelle angenommen wurde? Wie lange hat es von der Annahme des Notrufs bis zum Ausrücken gedauert? Um welche Einsätze hat es sich dabei gehandelt? Bei wie vielen Einsätzen konnte die Hilfsfrist nicht eingehalten werden? Mehrere Tausend Leitstellen nutzen das Analyse- und Reporting-Tool von eurofunk, um die erhobenen Daten auszuwerten und daraus Maßnahmen zur Optimierung abzuleiten, wie beispielsweise eine effizientere Planung von Einsatzkräften oder Dienststellenstandorten. Weil die Einsatzleitsysteme sehr sensible Daten enthalten, sind sie abgeschottet.

Nach dem Abschluss eines Einsatzes migrieren die Daten in ein sogenanntes Verwaltungssystem, in dem sie nachbearbeitet und ergänzt werden. Anschließend lädt sie der Data Integration Server in das Data Warehouse. Darauf haben die Nutzer aus den Leitstellen Zugriff, hier können sie Ad-hoc-Abfragen erstellen, auch ohne SQL-Experte zu sein. Sie haben die Möglichkeit, Qualitäts- und Performance-Kennzahlen über einen bestimmten Zeitraum kumuliert auszuwerten oder auch nur Stammdaten aufzulisten. Besonders hilfreich im Alltag der Rettungsdienste, Feuerwehren und Polizeikräfte ist das Einbeziehen geographischer Daten. Dabei lassen sich nicht nur Karten von Google einbinden, die Nutzer können auch eigene Kartendaten integrieren.

7. Swissport: Einfachere Datenintegrationsprozesse

Swissport ist die weltweit größte Servicegesellschaft für Flughäfen und Fluggesellschaften. Das Unternehmen wertet nahezu alle operationellen Systeme aus. Die Unternehmensdaten dienen der Planung von Flügen und Personal, der Budgetierung oder auch der Berechnung von KPIs. Swissport optimiert seine Datenintegrationsprozesse kontinuierlich. Beispielsweise, um die Verrechnung mit SAP in einen weltweiten Zusammenhang zu stellen. Dazu kommt, dass Swissport die Business-Logik aus den ETL-Jobs ausgegliedert hat. Die Business Rules werden extern erstellt und gepflegt. Somit gibt es eine Trennung von IT (Code/Prozessen) und Business Rules. Ausgelagerte Geschäftsregeln ermöglichen es, dass ein einziger IT-Datenverarbeitungsprozess für alle Swissport-Betriebseinheiten an verschiedensten Flughäfen läuft, dabei aber gleichzeitig die Unterschiede der verschiedenen Swissport-Stationen und die Verträge mit den Kunden berücksichtigt werden. Eine mögliche Geschäftsregel wäre etwa: „Wenn der Kunde 25 Jahre alt ist und in Frankfurt wohnt, dann führe eine Aktion aus: Kalkuliere einen Rabatt.“

Die Geschäftsregeln werden in einer Applikation gepflegt und sind nicht in die Software oder die IT-Prozesse eingebettet. Das macht die IT-Prozesse schlanker, übersichtlicher und damit agiler, bei gleichzeitig erhöhter Qualität. Die Verantwortung für die ausgelagerten Geschäftsregeln kann der Business-Experte übernehmen – also jemand aus dem Betrieb vor Ort, der die Regeln kennt und der für sie verantwortlich ist oder sie in einem Vertrag mit dem Kunden definiert hat.

Den Praxistest bestanden

Alle beschriebenen BI- und Big-Data-Projekte sind heute erfolgreich umgesetzt – die IT-Lösungen haben sich mittlerweile im Betrieb bewährt. Die Beispiele zeigen, dass Big Data und Business Intelligence keine Luftschlösser mehr sind. Ob in der Privatwirtschaft oder in der öffentlichen Verwaltung: Data Analytics ist gelebte Praxis.

 

 

Diese Artikel könnten Sie auch interessieren

Online Fachbeiträge Ausgabe 7 / 2013
Fachbeitrag       Enterprise Search

Big Data: Informationen im Unternehmen finden & effizient nutzen

Artikel lesen


Online Fachbeiträge Ausgabe 8 / 2013
Fachbeitrag       Big Data

Data Scientists – heiß begehrte Datenexperten

Artikel lesen


Online Fachbeiträge Ausgabe 9 / 2013
Fachbeitrag       Big Data

Das Datenzeitalter – die Informationsflut als Chance

Artikel lesen


Online Fachbeiträge Ausgabe 12 / 2013
Fachbeitrag       Qualitätsmanagement

Kein Prozess ohne Daten – Datenqualität bestimmt die Prozessqualität

Artikel lesen


Online Fachbeiträge Ausgabe 1 / 2014
Fachbeitrag       Studie

Big Data – das „Öl des 21. Jahrhunderts“

Artikel lesen


Unsere Empfehlungen