2024/7 | Fachbeitrag | Künstliche Intelligenz / Robotic

Wie Unternehmen ihre Daten für generative KI optimieren

von Gregor Bieler

Die Markteinführung von OpenAI ChatGPT hat eine wahre Welle der Begeisterung für generative künstliche Intelligenz (KI), insbesondere für Large Language Models (LLMs) ausgelöst - und ein Ende ist nicht abzusehen. Fast täglich entstehen neue Produkte, Unternehmen und Angebote im Bereich der generativen KI. Auch Unternehmen setzen zunehmend auf LLMs, um sich wettbewerbs- und zukunftsfähig aufzustellen. Viele Führungskräfte vernachlässigen jedoch eine wichtige Komponente einer erfolgreichen generativen KI-Strategie: die so genannte Data Readiness.

Bildquelle: (C) Gerd Altmann / Pixabay

Dies bestätigt auch eine Studie von Cognizant, die unter Geschäfts- und Technologieentscheidern großer Unternehmen in den USA und Großbritannien durchgeführt wurde. Demnach haben fast zwei Drittel (74 Prozent) der Führungskräfte noch keine Vorstellung davon, wie sie ihre Daten integrieren und generative KI über ihre Legacy-Anwendungen und Multi-Cloud-Umgebungen hinweg verwalten sollen.

Warum Daten wichtig sind

Künstliche Intelligenz begleitet uns schon seit einigen Jahren. Neu an der generativen KI ist, dass sie Dinge wie Texte, Bilder, Audio, Video, Softwarecode usw. erzeugen kann. Im vergangenen Jahr verblüfften Modelle wie ChatGPT oder Dall-E die Welt, indem sie fehlerfreie Originalprosa schrieben, flüssige Gespräche führten und sogar fantastische visuelle Kunstwerke produzierten. Zahlreiche Futuristen und Wirtschaftsexperten sagten damals einen tiefgreifenden, wenn auch simplen Einfluss dieses Durchbruchs auf die Zukunft der Arbeit voraus: "Kreative" Aufgaben, die heute noch von Menschen ausgeführt werden, sollten schon bald kostengünstiger und effizienter von generativer KI erledigt werden.

Einige Monate später hat sich jedoch ein komplexeres Bild ergeben: LLMs sind - zumindest bisher - stärker auf menschliche Eingaben und Überwachung angewiesen als ursprünglich angenommen. Auch im Unternehmenskontext setzt sich zunehmend die Erkenntnis durch, dass es beim Einsatz von generativer KI nicht einfach darum geht, eine Lizenz zu erwerben oder ein LLM zu bauen und dann den "Start"-Knopf zu drücken.

Um das einzigartige Potenzial der generativen KI für ein bestimmtes Unternehmen ausschöpfen zu können, benötigt die KI Zugang zu den proprietären Datensätzen, die jedes moderne Unternehmen einzigartig machen. In der Umfrage wurden proprietäre/interne Datensätze als die am häufigsten genannten Datensätze (72 Prozent) für den effizienten Betrieb von KI-Modellen ermittelt, gefolgt von validierten Datensätzen (45 Prozent) oder Datensätzen von Dritten (43 Prozent).

Zwei Modelle zur Integration von generativer KI

Bisher haben sich zwei Hauptansätze für die Integration von KI mit proprietären Unternehmensdaten herauskristallisiert, die jeweils ihre eigenen Vor- und Nachteile haben:

  • Benutzerdefinierte LLMs: Bei diesem Ansatz wird entweder ein Foundational Model (FM) oder ein allgemeines, universelles LLM verwendet. Die Modelle werden angepasst und mit eigenen Daten trainiert ("Fine-Tuning"), um neue anwendungsspezifische LLM- und/oder KI-Werkzeuge zu erstellen. Der Prozess des Fine-Tunings - insbesondere bei Techniken wie Reinforcement Learning from Human Feedback (RLHF) - erfordert menschlichen Input und kann daher zeit- und ressourcenintensiv sein. Auch nach der Fertigstellung müssen die neuen Werkzeuge ständig überwacht ("Human in the loop"), verbessert und gewartet werden. Für Unternehmen mit speziellen Nischenanforderungen und den Ressourcen für eine längerfristige Investition ist die Feinabstimmung des FM mit eigenen Daten ein aufwendiger, aber notwendiger Weg in die Zukunft.

  • Standard- LLMs kombiniert mit Retrieval Augmented Generation (RAG): Eine schnellere und kostengünstigere Lösung besteht darin, ein bestehendes LLM zu verwenden und ihm den Zugriff auf proprietäre Daten zu ermöglichen. In diesem Fall behält das Modell seine "generischen" Kernprozesse bei, ergänzt aber seine Ausgabe mit Informationen, die spontan aus proprietären Datenbanken abgerufen werden. Der RAG-Ansatz ist nicht nur schnell und kostengünstig, sondern auch flexibler als ein benutzerdefiniertes LLM. Änderungen in den Daten können in Echtzeit in den Ergebnissen widergespiegelt werden, ohne dass das gesamte Modell neu trainiert werden muss. Aber auch hier gilt, dass die Qualität des Modellergebnisses und seiner Gesamtfunktionalität begrenzt wird durch die Qualität und Zugänglichkeit der Daten, mit denen es arbeiten muss.

Datenqualität als Schlüsselfaktor

Unabhängig davon, welchen Ansatz ein Unternehmen für seine Strategie der generativen KI wählt, sind die Erfolgsaussichten eng mit der Qualität der bestehenden Datenarchitektur in den folgenden Schlüsselbereichen verknüpft:

  • Katalogisierung und Metadaten: Daten allein machen noch keinen Sinn - auch nicht für das weit verzweigte neuronale Netz eines modernen LLM. Die erste Säule der Data Readiness ist daher die Organisation der Daten in einem zentralen Repository mit umfassenden Metadaten. Die Metadaten wiederum beschreiben Quelle, Struktur, Inhalt und im Idealfall auch die Bedeutung. LLMs sollen also bald als eine Art Agent für menschliche Nutzer:innen fungieren und Antworten und Ergebnisse auf natürlichsprachliche Anfragen und Anweisungen liefern. Dazu benötigen sie nicht nur Zugriff auf alle relevanten Daten, sondern auch Informationen über die Daten, die ihnen Kontext und Bedeutung verleihen. Ohne ein exzellentes Metadatenmanagement wird es für LLM-Agenten schwierig, wenn nicht gar unmöglich sein, effizient zu arbeiten.

  • Zuverlässigkeit: Darüber hinaus müssen die Daten korrekt sein, insbesondere, wenn sie für das Training eines Modells der generativen KI verwendet werden. Vor dem Einsatz generativer KI sollten Unternehmen prüfen, wie viel Vertrauen Führungskräfte und Mitarbeiter:innen in bestehende Analysen, Berichte und/oder BI-Dashboards (Business Intelligence) haben. Lautet die Antwort "nicht viel", sollte das Management in die Lösung dieser Probleme investieren, bevor Ressourcen in das Training von LLMs auf der Grundlage von Daten minderer Qualität investiert werden.

  • Sicherheit, IP-Schutz und Datenschutz: Die Bedeutung der Datensicherheit ist für die meisten modernen Unternehmen kein Geheimnis, aber im kommenden Zeitalter der generativen KI könnten alle Schwachstellen in den bestehenden Abwehrmechanismen schnell aufgedeckt werden. Das Verhalten von LLMs ist nicht deterministisch oder exakt vorhersehbar - das liegt in der Natur ihrer Kreativität. Daher ist es schwierig, im Voraus zu wissen, wie böswillige Akteure ein LLM austricksen könnten, damit es geschützte Daten über ein Unternehmen oder seine Kunden preisgibt. Dies ist besonders problematisch, wenn ein Standard-LLM verwendet wird, das mit einer RAG erweitert wurde. Da das Modell häufiger mit geschützten Datenbanken interagiert, vervielfachen sich die Risiken einer möglichen Verletzung entsprechend. Obwohl diese Bedrohungen bis zu einem gewissen Grad unbekannt sind, sollte sichergestellt werden, dass Unternehmen, deren sensibelste Daten heute am besten geschützt sind, diesen Vorteil auch in die Ära der generativen KI mitnehmen.

  • Geschwindigkeit und Flexibilität: Um das Potenzial der KI voll ausschöpfen zu können, benötigen Unternehmen nicht nur Datenpipelines, die das Rohmaterial für die LLM liefern können, sondern sie müssen auch darauf vorbereitet sein, die neu entstehenden Datenströme zu empfangen und zu speichern. Diese Datenarchitektur muss im Voraus entwickelt werden und flexibel genug sein, um einen Informationsfluss zu bewältigen, der in den kommenden Jahren linear oder sogar exponentiell ansteigen kann. Teure Data Warehouses oder sogar relationale Datenbankmanagementsysteme (RDBMS) könnten die Datenmenge, die kostengünstig gespeichert und verarbeitet werden kann, allmählich begrenzen. Es ist nicht zu früh, mit der Erforschung moderner Data-Warehouse-Architekturen zu beginnen, einschließlich skalierbarer Cloud-Objektspeichersysteme wie S3 oder GCS.

"Replay"-Fähigkeit

Je weiter die Zukunft voranschreitet, desto dringender und häufiger wird es notwendig sein, auf die Vergangenheit zurückzugreifen. Die Fähigkeit, frühere Versionen eines Datensatzes wiederherzustellen oder "abzuspielen", ist für das Training, die Abstimmung und das Testen von LLMs buchstäblich unerlässlich. Selbst für Unternehmen, die den Einsatz eines bereits trainierten, abgestimmten und getesteten LLM in Erwägung ziehen, ist die Wiederherstellungsfähigkeit ihrer bestehenden Datensysteme ein nützlicher Indikator für die allgemeine Data Readiness auf dem Weg in das Zeitalter der generativen KI.

Dies gilt für alle hier genannten Metriken. Unternehmen, die nicht über gute Daten und eine gute Datenarchitektur verfügen, werden einen Wettbewerbsnachteil haben, wenn generative KI die Landschaft moderner Unternehmen verändert. Sie sollten daher den Aufbau einer soliden Datenbasis in Erwägung ziehen, bevor sie in ihr erstes LLM investieren. Umgekehrt sind Unternehmen, die ihre Daten bereits heute im Griff haben, gut aufgestellt, um nicht nur von den Vorteilen der generativen KI zu profitieren, sondern mit hoher Wahrscheinlichkeit auch von den nächsten großen Entwicklungen, die heute noch gar nicht vorstellbar sind.



Der Autor:


Gregor Bieler ist Head of Central Europe bei Cognizant. Er verfügt über umfangreiche internationale Expertise in der wettbewerbsintensiven ITK-Branche. Er war in den vergangenen Jahren als Investor und Vorstandsmitglied bei Unternehmen wie PartnersGroup, Apavari Software, Journee Technologies und Alterco tätig. Bieler ist ein Experte für digitale Technologien, insbesondere in den Bereichen SaaS, FinTech und E-Commerce, sowie in den Domänen Strategie, Vertrieb, Betrieb und Marketing. Bevor er seine Tätigkeit als Investor und Vorstandsmitglied aufnahm, konzentrierte sich Bieler hauptsächlich darauf, den kulturellen Wandel und Geschäftstransformationen voranzutreiben. Dies tat er unter anderem bei Microsoft, Unwire Group, Telefonica o2, PayPal und Logitech.

Web: www.cognizant.com

Diese Artikel könnten Sie auch interessieren

Auf dem (richtigen) Weg

An der Digitalisierung kommt keine Organisation mehr vorbei. Und auch Wissensmanagement ist mittlerweile alternativlos geworden. Andernfalls drohen weitreichende Konsequenzen: Dem War for Talents lässt sich ohne entsprechende Maßnahmen ebenso wenig standhalten wie dem immer stärker werdenden Wettbewerb. Diese Erkenntnis hat sich mittlerweile fast flächendeckend durchgesetzt. Doch obwohl die Gefahr...

Weiterlesen

Diese fünf Trends werden das KI-Jahr 2024 prägen

2023 war das Jahr der generativen KI. Die großen Sprachmodelle, die hinter populären Anwendungen wie ChatGPT stehen, haben die Leistungsfähigkeit von Künstlicher Intelligenz bei Textverständnis und Texterstellung auf ein ganz neues Niveau gehoben. Nachdem Unternehmen sich intensiv informiert und teilweise bereits experimentiert haben, werden sie 2024 verstärkt daran gehen, konkrete Lösungen zu ...

Weiterlesen

Effizientes Wissensmanagement im Maschinenbau

WISSENplus
Die Bedeutung von Wissensmanagement in der Industrie hat in den letzten Jahren enorm zugenommen. Insbesondere im Maschinenbau, der stark auf Präzision und Effizienz angewiesen ist, spielen optimierte Datenströme und Prozessautomatisierung eine zentrale Rolle. Dabei kann der Maschinenbau von der Telekommunikationsbranche lernen, wie eine durchdachte Struktur für den Umgang mit Daten aussehen sollte....

Weiterlesen

KI konkret: Sechs Business Cases entlang des Produktlebenszyklus

Von der Produktentwicklung bis zum Customer Service: Künstliche Intelligenz (KI) transformiert zunehmend Unternehmensprozesse und eröffnet neue Möglichkeiten der Wertschöpfung. Dabei ist es entscheidend, KI-Technologien gezielt und praxisorientiert einzusetzen. Verschiedene KI-Ansätze - von analytischen und prädiktiven Methoden bis hin zu den neuen generativen KI-Modellen (GenAI) - bieten unters...

Weiterlesen

Enterprise Search – ein Überblick: Die wichtigsten Suchmethoden und Suchtechnologien

WISSENplus
"Wer auf die Suche geht, muss zuvor wissen, wo er suchen soll." Nein, das ist keine Weisheit des Konfuzius, sondern leider noch immer gelebte Realität für viele Mitarbeitende. Neue Lösungen sollen - vor allem mit Hilfe Künstlicher Intelligenz (KI) - die Enterprise Search zukünftig verbessern. Doch was ist Suche überhaupt? Was kann sie in der Unternehmenspraxis leisten - und was nicht? ...

Weiterlesen

Serendipity: Wie aus Zufällen Glücksfälle werden

WISSENplus
Gar nicht so selten ist bei Innovationen der Zauber der Serendipität mit im Spiel, die Neugierde und einen offenen Blick für Möglichkeiten schließlich belohnt. Zu dieser Innovationskategorie zählen nicht nur Cornflakes, Schneekugeln, Herzschrittmacher, die Mikrowelle und Penicillin, sondern auch die berühmte blaue Pille. Doch muss man warten, bis König Zufall einen beglückt? Oder kann Serendip...

Weiterlesen

Zehn Must-dos zur Betrugsbekämpfung im Zeitalter von KI

Weltweit sehen sich Unternehmen mit einer Zunahme von Betrugsfällen konfrontiert, auch weil gewiefte Kriminelle zunehmend KI einsetzen. Deren Funktionalitäten nutzen etwa Deepfake-Software, automatisierte Phishing-Systeme, Chatbots und fortschrittliche Datenanalysen, die Betrugsversuche vereinfachen....

Weiterlesen