2013/9 | Fachbeitrag | Big Data

Das Datenzeitalter – die Informationsflut als Chance

von Michael Hoskins

Inhaltsübersicht:



Auf dem Weg zum „Internet der Dinge“, in dem alle Gegenstände zu sensorisch reichhaltig ausgestatteten intelligenten Objekten werden, werden Daten in Größenordnungen generiert, die jedes aus der Vergangenheit bekannte Maß sprengen und die bestehenden Infrastrukturen überschwemmen. In naher Zukunft wird ein Wettbewerbsvorteil dadurch aufrecht erhalten, dass man neue Wege findet, um die wachsende Datenflut aus einer Fülle von Quellen zu verarbeiten, durch fortschrittliche Analytikfunktionen relevante Zusammenhänge und Muster nahezu in Echtzeit herauszufiltern und betriebswirtschaftliche Maßnahmen zu ergreifen, die basierend auf diesen Erkenntnissen eine Wertschöpfung erzielen.

Daten als Ströme

Ein Kennzeichen des „Datenzeitalters“ ist es, dass Daten digital entstehen und ständig fließen. Es ist eine neue veränderte Sichtweise, dass man sich Daten als Ströme vorstellt, die durch „Pipelines“ fließen, statt wie bisher als eine zentrale, monolithische Anlage, die in einer statischen Umgebung eingeschlossen ist und nur in sorgfältig festgelegten Zeitabständen mit festgelegten Prozessen aktualisiert wird. Wahrscheinlich sehen wir bald einen Bruch mit traditionellen, reibungsbehafteten und spröden ETL- und statischen BI-Architekturen und einen Übergang zu „organischeren“, strömungsbasierten Strukturen, die sich an eine sich ständig verändernde Big Data-Landschaft anpassen können. Schwindelerregende Durchbrüche bei Datenbanktechnologien – NoSQL, Analytic, Graph, usw.; Big Data-Plattformen wie Hadoop; Cloud-basierte Integration und fortschrittliche prädiktive Analytik dürften alle einen Beitrag zu diesem Wandel leisten.

Software-Architekten und -Entwickler müssen vorangehen und sich mit den Stakeholdern in der Branche abstimmen, um diesen radikalen Wandel zu verstehen und Innovationen mit neuen Software-Plattformen schaffen, die sich über extrem leistungsfähige Streaming- und Persistenz-Ebenen erstrecken und eine neue Klasse von hochgradig iterativen Datenfunktionen und rechenintensiven Analytikaufgaben ermöglichen.

Big Data und seine fast grenzenlosen Möglichkeiten

Die Möglichkeit der Wertschöpfung aus Big Data mit der nahezu grenzenlosen und wirtschaftlichen Verarbeitungsleistung moderner Commodity-Hardware weckt die Begehrlichkeit von Technologen ebenso wie von Unternehmern – vorausgesetzt, die Software-Teile des Puzzles sind leistungsfähig genug. Die schlechte Nachricht ist, dass viele (auch sehr berühmte) Software-Stacks auf jahrzehntealten Strukturen basieren und einfach nicht für eine wirtschaftliche Skalierbarkeit im Datenzeitalter vorbereitet sind. Die gute Nachricht ist, dass einige der etablierten Stacks zwar unter dem Gewicht von Big Data ins Stolpern geraten, dass wir jedoch mittlerweile eine „Wildwest-Phase“ erreicht haben, in der eine Fülle neuer, für das Datenzeitalter bestimmter Softwaretechnologien hinzukommen. Nicht jede der neuen Technologien wird sich langfristig als überlebensfähig erweisen, und nicht alle etablierten Player werden untergehen, aber jetzt ist es an der Zeit zu experimentieren und diese zukunftsträchtigen Lösungen willkommen zu heißen.

Das Potenzial für die wirtschaftliche Nutzung ist atemberaubend, kann aber nur durch Innovatoren genutzt werden, die erkennen, dass es sich nicht mehr um die gleiche Datenlandschaft wie zu Zeiten unserer Vorfahren handelt und dass wir am Anfang einer komplett neuen Generation von superskalierender Software stehen, die uns helfen kann, im Datenzeitalter zu überleben und erfolgreich zu sein. Jetzt geht es darum, diese Berge von Rohdaten möglichst schnell in sinnvolle Business-Aktionen umzusetzen – d.h. bessere Vorhersagen zu machen als die Konkurrenz. Wir bewegen uns unwiderruflich weg von der auf menschlichen Fähigkeiten beruhenden „Kunst“ der Entscheidungsfindung und hin zu der auf Daten basierenden „Wissenschaft“ der Entscheidungsfindung, angetrieben von der Aussicht auf fortschrittliche Analytik, die uns hilft, schnellere und exaktere Entscheidungen zu treffen.

Moderne Software-Architekturen aufbauen

Wenn Sie bei einer neuen Organisation arbeiten, die ihre Dateninfrastruktur gerade erst aufbaut, haben Sie den Luxus, von Anfang an moderne Software-Architekturen einzuführen. In einer etablierten Organisation gibt es zahlreiche Möglichkeiten, die vorhandene Infrastruktur zu nutzen und sie allmählich zu einer besser skalierbaren und wirtschaftlicheren Software-Infrastruktur auszubauen.

Wo sollte man anfangen? Wenn Sie dies noch nicht getan haben, sollten Sie sich einen Bereich Ihres Geschäfts aussuchen, in dem ein Projekt besonders von verbesserten, datengestützten Maßnahmen oder vielleicht sogar vollständig automatisierten Maßnahmen profitieren könnte. Mit einer agilen Architektur zur Erfassung, Analyse und Verwertung von Daten können Sie die Daten in Ihrer vorhandenen Infrastruktur (oder aus externen Quellen) nutzen, um bessere Entscheidungen zu treffen. Hier ein paar Tipps, wo Sie ansetzen können:

  1. Suchen Sie sich einen Bereich Ihres Geschäftes aus, der von einer „Entscheidungswissenschaft“ profitieren kann und in dem Sie große Mengen von aus dem Internet oder maschinell generierten Daten auswerten können, um mit fortschrittlichen Analytiktechniken prädiktive Modelle zur Verbesserung der Entscheidungsfindung zu erstellen.
  2. Finden Sie eine Software, die unabhängig von einer bestimmten Hardware ist und die Ihnen einen einfachen Zugang zu der latenten Power erlaubt, die bisher weitgehend ungenutzt in handelsüblichen Multicore-Servern oder Clustern zur Verfügung steht.
  3. Nutzen Sie die Leistungsfähigkeit der Parallelverarbeitung. Denken Sie an Kombinationen von Technologien für ein vollständiges und flexibles „Scale Up and Scale Out“ (SUSO), die eine Parallelverarbeitung sowohl auf der detaillierten Thread-Ebene als auch auf der groben Prozessebene ermöglichen, um die Zukunftssicherheit Ihrer Lösung für die zunehmende Menge und Verschiedenartigkeit Ihrer Daten zu gewährleisten.
  4. Berücksichtigen Sie die Aspekte der Entwicklungszeit sowie der Agilität bei der Ausführung. Suchen Sie nach Technologie, die einen nativen Betrieb für die neuesten Anforderungen ermöglicht, aber auch eine ausgereifte Management-Ebene und ein Ökosystem bietet, das schnelle Codierung und einfache Aktualisierungen erlaubt, um mit der weiteren rasanten technischen Entwicklung Schritt halten zu können.
  5. Streben Sie Architekturen an, die Ihnen ein überragendes Preis-Leistungs-Verhältnis bieten. Vermeiden Sie traditionelle Architekturen, die sich nur mit hohem Kostenaufwand skalieren lassen, da sie in großem Umfang teuere Hardware und Software erfordern.

Das Datenzeitalter erfordert moderne Software-Architekturen, die Unternehmen dabei unterstützen, Big Data in wirtschaftlichen Nutzen umzusetzen. Dies ist eine sehr interessante Zeit für einen kreativen Technologen, der bestrebt ist, für das Unternehmen eine beispiellose Wertschöpfung zu realisieren.

Diese Artikel könnten Sie auch interessieren

DMS EXPO 2011 lockt mit einer großen Themenvielfalt

Vom 20. bis 22. September öffnet die DMS EXPO 2011 wieder parallel zur IT & Business ihre Türen. Internationale Aussteller zeigen auf Europas Leitmesse und Konferenz für Enterprise-, Content-, Output- und Dokumentenmanagement aktuelle Lösungen rund um die Optimierung des Dokumentenhandlings. Im Fokus stehen beschleunigte Prozesse und ein effizienterer Umgang mit digitalen und papiernen Dokumenten. D...

Weiterlesen

Hohe Datenqualität – die Basis für den Unternehmenserfolg

Der Ärger ist groß, wenn durch hohe Rückläuferquoten Mailing-Aktionen versanden oder kostspielig ein zweites Mal durchgeführt werden müssen. Wenn Kunden Werbematerialien mehrfach oder Rechnungen gar nicht erhalten. Wenn es Beschwerden hagelt, weil die Mitarbeiter im Support zu lange brauchen, um die nötigen Daten zu finden, oder Forecast-Analysen des Vertriebs ins Leere gehen, weil potenzielle Intere...

Weiterlesen

Vertrauen ist gut - Kontrolle ist besser: (Daten-)Sicherheit im Einkaufsprozess

WISSENplus
Der Einkaufsprozess bietet Unternehmen und seinen Angestellten in der Regel einen relativ großen Spielraum – nicht nur bei der Optimierung der unternehmenseigenen Aufwendungen, sondern häufig auch beim Ausreizen des „Machbaren“. Gesetzliche und interne Regelungen werden bewusst überschritten, wobei Unregelmäßigkeiten oftmals erst bei Hinweisen von außen nachgegangen wird, so dass bis zu einer st...

Weiterlesen

Alles, was den Posteingang smart macht – die DMS EXPO hat’s

Bald ist es wieder so weit: Vom 23. bis 25. Oktober 2012 kommt auf der DMS EXPO 2012, der Leitmesse für Enterprise Content Management (ECM), das Who's who der ECM-Anbieter zusammen. Sie zeigen Entscheidern, welche Systeme und Lösungen für die Optimierung der unternehmensweiten Informationsverarbeitung verfügbar sind. Zusätzlicher Mehrwert für DMS EXPO-Besucher: Parallel durchgeführt mit der IT & Bus...

Weiterlesen

Big Data – das „Öl des 21. Jahrhunderts“

Wenn Big Data das „Öl des 21. Jahrhunderts“ ist, wie Analysten gerne titulieren, so entspricht die Datenaufbereitung dem Raffinerieprozess und das Business Process Management (BPM) dem Versorgungssystem, adäquat einer Tankstelleninfrastruktur. BPM liefert den raffinierten Treibstoff für die Geschäftsprozesse. Aber die Big-Data-Industrie steckt derzeit noch in den Kinderschuhen, ähnlich wie die Öli...

Weiterlesen

Causal Analytics: Wie aus Big Data Wissen wird

WISSENplus
Wissen ist das Kapital der modernen Wirtschaft. Doch vieles, was heute Wissen genannt wird, ist für das Treffen effektiver Entscheidungen ungeeignet. Entscheidungen auf Fakten und nicht auf unüberprüfbare Meinungen zu gründen: Diese wichtige und lange überfällige Idee hat in den vergangenen Jahren zur Blüte der Business Intelligence beigetragen. Der Big-Data-Boom feuert diese Entwicklung an und verhe...

Weiterlesen

Data Scientists – heiß begehrte Datenexperten

21. Jahrhunderts gekürt. Überall wird behauptet, dass Data Scientists zu einem festen Bestandteil des Geschäftslebens werden. Auch an den Hochschulen werden immer mehr Kurse zum Thema angeboten. Mit Sicherheit ist der Data Scientist wichtig und begehrt, aber es gibt auch Möglichkeiten für Unternehmen, die Qualifikationen für die Position eines Data Scientist bei ihren vorhandenen Mitarbeitern aufzubau...

Weiterlesen

Die Zukunft des ECM-Marktes

WISSENplus
Mit der ECM-Technologie wird das physische Datenarchiv abgelöst. Gleichzeitig steigen die zu verwaltenden Datenmengen. Ein Teil des erhöhten Verwaltungsaufwands lässt sich durch sinkende Beschaffungskosten der Speichertechnologie einsparen. Zudem gehen die Transaktionskosten durch die Automatisierung der Datenverarbeitungsprozesse zurück. Dennoch steht die Frage im Raum, wie der größtmögliche Nutzen ...

Weiterlesen