Fachbeiträge

Ausgabe 1 / 2019
FachbeitragBig Data

Mit prognostischer Analytik die Zukunft gestalten

von Nathan Jagoda

Aufgabe der prognostischen Analytik ist die Entscheidungsunterstützung. Als Ergänzung zu klassischen BI-Applikationen, die Leistungswerte abgeschlossener Geschäftsperioden dokumentieren, liefert die prognostische Analytik Ergebnisse, auf deren Basis Führungskräfte und Experten in den Fachabteilungen Entscheidungen treffen.

Inhaltsübersicht:

„Nur wer die Vergangenheit kennt, hat eine Zukunft“, heißt es in einem Zitat, das Wilhelm von Humboldt zugeschrieben wird. Damit sind kurz und prägnant die Beziehungen zwischen historischen Daten – beispielsweise den Jahres-, Quartals- und Monatsberichten – als Ausgangsbasis und den Ergebnissen der prognostischen Analytik (Predictive Analytics) beschrieben, die einen Einblick in die zukünftige Entwicklung bietet. Die Vergangenheit zu betrachten, um zu sehen, was wie geplant geschah, und daraus zu Lernen ist notwendig, denn ansonsten würden immer wieder die gleichen Fehler wiederholt.

Der Blick nach vorne

Um die Zukunft zu gestalten, muss der Blick durch die Windschutzscheibe nach vorne gerichtet werden. Die dazu benötigten Werkzeuge stellt die prognostische Analytik bereit. Sie bietet ein umfangreiches Spektrum statistischer Methoden und Verfahren zur Datenanalyse, mit denen die verschiedenen Benutzergruppen in den Unternehmen arbeiten können. Von aussagekräftigen Modellen und zielgenauen Einzelprognosen profitieren sowohl alle Managementhierarchien als auch die Entscheider in den Fachabteilungen.

Prognostische Analytik unterstützt auf Basis algorithmischer Verfahren Mitarbeiter dabei, Muster und Trends in den vorliegenden Daten zu erkennen und zu verstehen. Wichtige Entscheidungen stützen sich dann nicht mehr auf ein wie auch immer geartetes Bauchgefühl, sondern auf relevante Fakten und damit erstellte Prognosen. In vielen Unternehmen gibt es dafür eine Reihe von Anwendungsszenarien:

  • Predictive Maintenance: Durch die kontinuierliche Überwachung des physikalischen Zustands von Maschinenteilen und -konfigu­rationen fallen riesige Datenmengen an.
  • Steuerung der Produktion: Eine IoT-Applikation erfasst Sensordaten von Maschinen und Werkzeugen und analysiert sie im Hinblick auf unerwartetes Verhalten. Bei den erkannten Mustern werden Korrelationen mit früheren Qualitätsproblemen, Maschinenausfällen sowie Werkzeugbrüchen gesucht und die Produktionssteuerung entsprechend angepasst.
  • CRM: Mitarbeiter im Marketing analysieren die Datenbanken mit Kundenkontakten, Supportanfragen und Aufträgen und entwickeln auf dieser Basis ein Modell für eine höhere Kundenbindung und -zufriedenheit.
  • Bearbeitung von Kreditanträgen: Die Kreditrisiken lassen sich beispielsweise mit einer Scoring-Anwendung bewerten. Anhand vorliegender Daten für Fallunterscheidungen, die eine Vielzahl von Parametern und deren Einflüsse berücksichtigen, werden Entscheidungspfade aufgebaut. Die gängigsten Parameter sind Alter des Antragstellers, Geschlecht, höchster Bildungsabschluss, Wohnort, Beruf, Einkommen, Kredithistorie und gewünschte Kreditsumme.

Bei der Prognosegenauigkeit spielen drei Variablen eine entscheidende Rolle: erstens die zur Verfügung stehende Datenmenge sowie die Qualität, Konsistenz und Zuverlässigkeit der Daten, zweitens die Gewichtung der unterschiedlichen Einflussgrößen und drittens die Technologien zur Erfassung und Analyse der Daten sowie die eigentliche Produktion von Prognosen.

Statistische Prognoseverfahren in eine BI-Plattform integrieren

Prognostische Analytik gehört seit geraumer Zeit zu den Aufgaben der Unternehmenssteuerung. Allerdings befassten sich damit nahezu ausschließlich Spezialisten. Durch eine Kombination von Business Intelligence mit Statistikbibliotheken hat sich das geändert. Während sich BI mit den Geschäftsergebnissen in der Vergangenheit und deren Auswirkungen auf die Gegenwart befasst, liefern die statistischen Verfahren der prognostischen Analytik einen Blick auf mögliche oder auch gewünschte künftige Entwicklungen.

Eine derartige Verknüpfung von BI und prognostischer Analytik bietet beispielsweise WebFOCUS RStat von Information Builders. Eine solche kombinierte Umgebung adressiert drei zentrale Herausforderungen der prognostischen Analytik: erstens der Zugriff auf die Daten und deren Aufbereitung, zweitens die Erstellung von Prognosemodellen und drittens die Erstellung und Auslieferung von Prognose-Applikationen an Anwender in den Fachabteilungen.

In dieser integrierten BI-und Statistikumgebung übernimmt ein Datenmodellierer grundlegende Aufgaben. Er profiliert und bereinigt die Daten, erstellt die Grundlagen für Abfragen und ist für die Verwaltung der Benutzerzugriffe zuständig. Auf Basis dieser Vorarbeiten sind Anwender aus den Fachabteilungen dann in der Lage, Abfragen in der Modellierungs-Engine RStat für Reporting- und Modellier-Applikationen zu formulieren; sie benötigen dazu kein tiefreichendes Statistik-Know-how, betriebswirtschaftliche Grundkenntnisse reichen aus.

Prognosemodelle kontinuierlich weiterentwickeln

Ein wichtiger Vorteil der Integration: Benutzer aus den Fachabteilungen können die Ergebnisse der statistischen Verfahren direkt mit der BI-Plattform weiterverwenden. Prognostische Modelle lassen sich in vielen Branchen und Anwendungsszenarien effizient einsetzen. Das mögliche Spektrum reicht vom Supply-Chain-Management über die Bedarfs- und Produktionsplanung, die Qualitätssteigerung in den Produktionsabläufen bis hin zur Prognose der Fehleranfälligkeit von Produkten. Use Cases ergeben sich darüber hinaus beispielsweise auch im Einzelhandel. Marketing- und Vertriebsspezialisten können hier modellmäßig einzelne Preisszenarien, abhängig von Produkten, Standorten und Jahreszeiten, testen. Ziel dabei ist es immer, die Erkenntnisse im nächsten Durchlauf umzusetzen und Prozesse kontinuierlich zu verbessern. Ein zentraler Punkt dabei ist die Lernfähigkeit der verwendeten Prognosemodelle.

 

 

Diese Artikel könnten Sie auch interessieren

wissensmanagement Heft 2 / 2019
Trends       Big Data

Knowledge Graph in der Medizinischen Forschung: Das komplexe System „Mensch“ verstehen

von Dirk Möller

Artikel lesen


wissensmanagement Heft 5 / 2018
Titelthema       Big Data

Künstliche Intelligenz braucht gute Daten

von Matthias Bauer

Artikel lesen


wissensmanagement Heft 5 / 2018
Titelthema       Human Resources

Die Vermessung der Personalarbeit: Was mit Zahlen und Daten heute möglich ist

von Steffen Michel

Artikel lesen


wissensmanagement Heft 5 / 2018
Titelthema       Best Practice

Big Data Analytics im Rechtswesen: Legal lesen

von Alexander Firyn

Artikel lesen


wissensmanagement Heft 5 / 2018
Editorial       Editorial

Nutzen Sie Big Data richtig?

von Oliver Lehnert

Artikel lesen