2024/7 | Fachbeitrag | Künstliche Intelligenz / Robotic

Wie Unternehmen ihre Daten für generative KI optimieren

von Gregor Bieler

Die Markteinführung von OpenAI ChatGPT hat eine wahre Welle der Begeisterung für generative künstliche Intelligenz (KI), insbesondere für Large Language Models (LLMs) ausgelöst - und ein Ende ist nicht abzusehen. Fast täglich entstehen neue Produkte, Unternehmen und Angebote im Bereich der generativen KI. Auch Unternehmen setzen zunehmend auf LLMs, um sich wettbewerbs- und zukunftsfähig aufzustellen. Viele Führungskräfte vernachlässigen jedoch eine wichtige Komponente einer erfolgreichen generativen KI-Strategie: die so genannte Data Readiness.

Bildquelle: (C) Gerd Altmann / Pixabay

Dies bestätigt auch eine Studie von Cognizant, die unter Geschäfts- und Technologieentscheidern großer Unternehmen in den USA und Großbritannien durchgeführt wurde. Demnach haben fast zwei Drittel (74 Prozent) der Führungskräfte noch keine Vorstellung davon, wie sie ihre Daten integrieren und generative KI über ihre Legacy-Anwendungen und Multi-Cloud-Umgebungen hinweg verwalten sollen.

Warum Daten wichtig sind

Künstliche Intelligenz begleitet uns schon seit einigen Jahren. Neu an der generativen KI ist, dass sie Dinge wie Texte, Bilder, Audio, Video, Softwarecode usw. erzeugen kann. Im vergangenen Jahr verblüfften Modelle wie ChatGPT oder Dall-E die Welt, indem sie fehlerfreie Originalprosa schrieben, flüssige Gespräche führten und sogar fantastische visuelle Kunstwerke produzierten. Zahlreiche Futuristen und Wirtschaftsexperten sagten damals einen tiefgreifenden, wenn auch simplen Einfluss dieses Durchbruchs auf die Zukunft der Arbeit voraus: "Kreative" Aufgaben, die heute noch von Menschen ausgeführt werden, sollten schon bald kostengünstiger und effizienter von generativer KI erledigt werden.

Einige Monate später hat sich jedoch ein komplexeres Bild ergeben: LLMs sind - zumindest bisher - stärker auf menschliche Eingaben und Überwachung angewiesen als ursprünglich angenommen. Auch im Unternehmenskontext setzt sich zunehmend die Erkenntnis durch, dass es beim Einsatz von generativer KI nicht einfach darum geht, eine Lizenz zu erwerben oder ein LLM zu bauen und dann den "Start"-Knopf zu drücken.

Um das einzigartige Potenzial der generativen KI für ein bestimmtes Unternehmen ausschöpfen zu können, benötigt die KI Zugang zu den proprietären Datensätzen, die jedes moderne Unternehmen einzigartig machen. In der Umfrage wurden proprietäre/interne Datensätze als die am häufigsten genannten Datensätze (72 Prozent) für den effizienten Betrieb von KI-Modellen ermittelt, gefolgt von validierten Datensätzen (45 Prozent) oder Datensätzen von Dritten (43 Prozent).

Zwei Modelle zur Integration von generativer KI

Bisher haben sich zwei Hauptansätze für die Integration von KI mit proprietären Unternehmensdaten herauskristallisiert, die jeweils ihre eigenen Vor- und Nachteile haben:

  • Benutzerdefinierte LLMs: Bei diesem Ansatz wird entweder ein Foundational Model (FM) oder ein allgemeines, universelles LLM verwendet. Die Modelle werden angepasst und mit eigenen Daten trainiert ("Fine-Tuning"), um neue anwendungsspezifische LLM- und/oder KI-Werkzeuge zu erstellen. Der Prozess des Fine-Tunings - insbesondere bei Techniken wie Reinforcement Learning from Human Feedback (RLHF) - erfordert menschlichen Input und kann daher zeit- und ressourcenintensiv sein. Auch nach der Fertigstellung müssen die neuen Werkzeuge ständig überwacht ("Human in the loop"), verbessert und gewartet werden. Für Unternehmen mit speziellen Nischenanforderungen und den Ressourcen für eine längerfristige Investition ist die Feinabstimmung des FM mit eigenen Daten ein aufwendiger, aber notwendiger Weg in die Zukunft.

  • Standard- LLMs kombiniert mit Retrieval Augmented Generation (RAG): Eine schnellere und kostengünstigere Lösung besteht darin, ein bestehendes LLM zu verwenden und ihm den Zugriff auf proprietäre Daten zu ermöglichen. In diesem Fall behält das Modell seine "generischen" Kernprozesse bei, ergänzt aber seine Ausgabe mit Informationen, die spontan aus proprietären Datenbanken abgerufen werden. Der RAG-Ansatz ist nicht nur schnell und kostengünstig, sondern auch flexibler als ein benutzerdefiniertes LLM. Änderungen in den Daten können in Echtzeit in den Ergebnissen widergespiegelt werden, ohne dass das gesamte Modell neu trainiert werden muss. Aber auch hier gilt, dass die Qualität des Modellergebnisses und seiner Gesamtfunktionalität begrenzt wird durch die Qualität und Zugänglichkeit der Daten, mit denen es arbeiten muss.

Datenqualität als Schlüsselfaktor

Unabhängig davon, welchen Ansatz ein Unternehmen für seine Strategie der generativen KI wählt, sind die Erfolgsaussichten eng mit der Qualität der bestehenden Datenarchitektur in den folgenden Schlüsselbereichen verknüpft:

  • Katalogisierung und Metadaten: Daten allein machen noch keinen Sinn - auch nicht für das weit verzweigte neuronale Netz eines modernen LLM. Die erste Säule der Data Readiness ist daher die Organisation der Daten in einem zentralen Repository mit umfassenden Metadaten. Die Metadaten wiederum beschreiben Quelle, Struktur, Inhalt und im Idealfall auch die Bedeutung. LLMs sollen also bald als eine Art Agent für menschliche Nutzer:innen fungieren und Antworten und Ergebnisse auf natürlichsprachliche Anfragen und Anweisungen liefern. Dazu benötigen sie nicht nur Zugriff auf alle relevanten Daten, sondern auch Informationen über die Daten, die ihnen Kontext und Bedeutung verleihen. Ohne ein exzellentes Metadatenmanagement wird es für LLM-Agenten schwierig, wenn nicht gar unmöglich sein, effizient zu arbeiten.

  • Zuverlässigkeit: Darüber hinaus müssen die Daten korrekt sein, insbesondere, wenn sie für das Training eines Modells der generativen KI verwendet werden. Vor dem Einsatz generativer KI sollten Unternehmen prüfen, wie viel Vertrauen Führungskräfte und Mitarbeiter:innen in bestehende Analysen, Berichte und/oder BI-Dashboards (Business Intelligence) haben. Lautet die Antwort "nicht viel", sollte das Management in die Lösung dieser Probleme investieren, bevor Ressourcen in das Training von LLMs auf der Grundlage von Daten minderer Qualität investiert werden.

  • Sicherheit, IP-Schutz und Datenschutz: Die Bedeutung der Datensicherheit ist für die meisten modernen Unternehmen kein Geheimnis, aber im kommenden Zeitalter der generativen KI könnten alle Schwachstellen in den bestehenden Abwehrmechanismen schnell aufgedeckt werden. Das Verhalten von LLMs ist nicht deterministisch oder exakt vorhersehbar - das liegt in der Natur ihrer Kreativität. Daher ist es schwierig, im Voraus zu wissen, wie böswillige Akteure ein LLM austricksen könnten, damit es geschützte Daten über ein Unternehmen oder seine Kunden preisgibt. Dies ist besonders problematisch, wenn ein Standard-LLM verwendet wird, das mit einer RAG erweitert wurde. Da das Modell häufiger mit geschützten Datenbanken interagiert, vervielfachen sich die Risiken einer möglichen Verletzung entsprechend. Obwohl diese Bedrohungen bis zu einem gewissen Grad unbekannt sind, sollte sichergestellt werden, dass Unternehmen, deren sensibelste Daten heute am besten geschützt sind, diesen Vorteil auch in die Ära der generativen KI mitnehmen.

  • Geschwindigkeit und Flexibilität: Um das Potenzial der KI voll ausschöpfen zu können, benötigen Unternehmen nicht nur Datenpipelines, die das Rohmaterial für die LLM liefern können, sondern sie müssen auch darauf vorbereitet sein, die neu entstehenden Datenströme zu empfangen und zu speichern. Diese Datenarchitektur muss im Voraus entwickelt werden und flexibel genug sein, um einen Informationsfluss zu bewältigen, der in den kommenden Jahren linear oder sogar exponentiell ansteigen kann. Teure Data Warehouses oder sogar relationale Datenbankmanagementsysteme (RDBMS) könnten die Datenmenge, die kostengünstig gespeichert und verarbeitet werden kann, allmählich begrenzen. Es ist nicht zu früh, mit der Erforschung moderner Data-Warehouse-Architekturen zu beginnen, einschließlich skalierbarer Cloud-Objektspeichersysteme wie S3 oder GCS.

"Replay"-Fähigkeit

Je weiter die Zukunft voranschreitet, desto dringender und häufiger wird es notwendig sein, auf die Vergangenheit zurückzugreifen. Die Fähigkeit, frühere Versionen eines Datensatzes wiederherzustellen oder "abzuspielen", ist für das Training, die Abstimmung und das Testen von LLMs buchstäblich unerlässlich. Selbst für Unternehmen, die den Einsatz eines bereits trainierten, abgestimmten und getesteten LLM in Erwägung ziehen, ist die Wiederherstellungsfähigkeit ihrer bestehenden Datensysteme ein nützlicher Indikator für die allgemeine Data Readiness auf dem Weg in das Zeitalter der generativen KI.

Dies gilt für alle hier genannten Metriken. Unternehmen, die nicht über gute Daten und eine gute Datenarchitektur verfügen, werden einen Wettbewerbsnachteil haben, wenn generative KI die Landschaft moderner Unternehmen verändert. Sie sollten daher den Aufbau einer soliden Datenbasis in Erwägung ziehen, bevor sie in ihr erstes LLM investieren. Umgekehrt sind Unternehmen, die ihre Daten bereits heute im Griff haben, gut aufgestellt, um nicht nur von den Vorteilen der generativen KI zu profitieren, sondern mit hoher Wahrscheinlichkeit auch von den nächsten großen Entwicklungen, die heute noch gar nicht vorstellbar sind.



Der Autor:


Gregor Bieler ist Head of Central Europe bei Cognizant. Er verfügt über umfangreiche internationale Expertise in der wettbewerbsintensiven ITK-Branche. Er war in den vergangenen Jahren als Investor und Vorstandsmitglied bei Unternehmen wie PartnersGroup, Apavari Software, Journee Technologies und Alterco tätig. Bieler ist ein Experte für digitale Technologien, insbesondere in den Bereichen SaaS, FinTech und E-Commerce, sowie in den Domänen Strategie, Vertrieb, Betrieb und Marketing. Bevor er seine Tätigkeit als Investor und Vorstandsmitglied aufnahm, konzentrierte sich Bieler hauptsächlich darauf, den kulturellen Wandel und Geschäftstransformationen voranzutreiben. Dies tat er unter anderem bei Microsoft, Unwire Group, Telefonica o2, PayPal und Logitech.

Web: www.cognizant.com

Diese Artikel könnten Sie auch interessieren

KI kann viel – aber Vertrauen braucht ein Gesicht!

Künstliche Intelligenz ist inzwischen in nahezu allen Büros angekommen. Mitarbeiter:innen nutzen diverse Tools - nicht nur zur Generierung von Bildern und Videos - sondern auch zur Erstellung von Texten, Schulungsunterlagen und Präsentationen. Gerade beim Erfassen von Dokumenten mit wichtigem Wissen ist der tatsächliche Verfasser ein entscheidender Vertrauensfaktor. Warum Inhalte ohne erkennbaren Urhebe...

Weiterlesen

KI macht aus Enterprise-Search-Lösungen Plattformen für das Wissensmanagement

WISSENplus
Enterprise-Search-Lösungen erleichtern die Informationsbeschaffung in Unternehmen und Behörden immens. Large Language Models (LLMs) und Generative KI heben neuerdings die Arbeitseffizienz und die Qualität der Suchergebnisse noch einmal auf ein neues Level. So werden aus traditionellen Unternehmenssuchen echte Plattformen für das Wissensmanagement....

Weiterlesen

Assistent oder Autopilot? Was KI wirklich leisten kann!

Künstliche Intelligenz hat in den vergangenen Monaten endgültig ihren Platz in unserem Arbeitsalltag eingenommen: 69 Prozent der Wissensarbeiter in Deutschland nutzen KI bereits regelmäßig, oft täglich. Das zeigt eine aktuelle Microsoft-Studie, durchgeführt in Zusammenarbeit mit LinkedIn. Demnach schreiben Wissensarbeiter insbesondere E-Mails mit ChatGPT, übersetzen mit DeepL, automatisieren Mi...

Weiterlesen

Transkription im Kundenservice: Zwischen Effizienz und Datenschutz

Sprach-zu-Text-Systeme halten Einzug in den Kundenservice, doch ihr Einsatz ist rechtlich alles andere als trivial. Unternehmen, die Gespräche aufzeichnen und automatisiert transkribieren lassen, bewegen sich im Spannungsfeld zwischen Digitalisierung und Datenschutz. Dabei sind die Regeln der Datenschutz-Grundverordnung (DSGVO), des Telekommunikations-Digitaldienstegesetzes (TDDDG) sowie die Persönli...

Weiterlesen

Kontrollierte Intelligenz: Warum KI klare Richtlinien braucht

WISSENplus
Mal eben noch eine E-Mail an den Kunden texten oder den Vertrag für den Geschäftspartner aus Frankreich schnell von DeepL übersetzen lassen: In Deutschland nutzen 69 Prozent der Wissensarbeiter tagtäglich Künstliche Intelligenz (KI) bei der Arbeit. Vor allem, wenn sie Zeit sparen wollen oder sich von der Lösung mehr Kreativität erhoffen. Das zeigt eine weltweite Umfrage von Microsoft in Zusamme...

Weiterlesen

Erfahrungswissen als Zukunftskapital: Wie KI das Know-how der Mitarbeitenden nutzbar macht

WISSENplus
Während sich Unternehmen intensiv mit KI, Digitalisierung und Fachkräftemangel beschäftigen, bleibt ein entscheidender Risikofaktor oft unbeachtet: das Erfahrungswissen ihrer Mitarbeitenden. In den kommenden zehn Jahren gehen 30 Prozent der heutigen Fachkräfte in Rente. Mit ihnen droht jenes Wissen zu verschwinden, das nicht dokumentiert ist - etwa, wie man im technischen Service eine Fehlersuche effizi...

Weiterlesen

So bleibt Wissen im Unternehmen – intelligent, strukturiert und verfügbar

In jedem Unternehmen gibt es wertvolles Wissen - in Dokumenten, Systemen und Köpfen. Oft bleibt es jedoch verborgen oder unstrukturiert. Die Herausforderung liegt nicht im Mangel an Wissen, sondern in fehlender Zugänglichkeit, Struktur und Nutzbarkeit. Genau hier setzt HeinzAI an: ein KI-gestütztes Wissensmanagement, das Unternehmenswissen sichtbar und effizient macht....

Weiterlesen