2025/8 | Fachbeitrag | Künstliche Intelligenz / Robotic

Vorsicht vor diesen vier GenAI-Qualitätskillern

Ohne echte Qualitätssicherung für die Nutzung generativer KI steht der Menschheit eine Dystopie ins Haus. Solange sie nicht existiert, sind die Nutzer in der Pflicht, die Gefahren von GenAI zu kennen und die Technologie verantwortungsvoll einzusetzen. Die Münchner Kommunikationsagentur PR-COM, die auf High-tech-Themen spezialisiert ist, sorgt für Aufklärung und nennt die vier gefährlichsten Qualitätskiller im beginnenden KI-Zeitalter.

Die Leistung und die Zuverlässigkeit von KI-Assistenten nehmen gefühlt weiter zu. Doch wer in den letzten Wochen intensives Prompting bei ChatGPT, Perplexity und Co. betrieben und die Ergebnisse eingehend analysiert hat, fühlte sich in diesem Gefühl nicht bestätigt. Im Gegenteil: Die Qualität der generierten Antworten lässt neuerdings öfter zu wünschen übrig. Auf YouTube gibt es zahlreiche Videos zu diesem Phänomen, das sich offenbar auch die Hersteller nicht so ganz erklären können, aber auch klassische Medien berichten darüber. In Anbetracht der Tatsache, wie abhängig sich viele Menschen im Berufsleben schon heute von GenAI-Tools gemacht haben, ist dieser Trend erschreckend und ernüchternd. Ein blindes Vertrauen in die digitalen Helfer aus der Familie generativer KI birgt zudem großes Schadenspotenzial, etwa dann, wenn Ärztinnen sich bei der Diagnose auf sie stützen oder Entwickler von der KI vorgeschlagene Frameworks ohne Sicherheitscheck implementieren.

Völliges Vertrauen in GenAI ist also, zurückhaltend formuliert, mindestens gewagt. Die Situation ist ernst und erfordert von GenAI-Anbietern ein Mindestmaß an Qualitätssicherung - offenbar kein einfaches Unterfangen. Bis dahin ist es wichtig, eigene Maßnahmen zu ergreifen, um nicht in die Falle der folgenden vier Qualitätskiller zu geraten.

Killer #1: Halluzinationen

KI-Assistenten wie ChatGPT und Co. wurde die Aufgabe erteilt, Antworten zu liefern - koste es, was es wolle. Wenn die Wissensbibliothek nicht ausreicht, um komplexe Sachverhalte zu beantworten, fängt generative KI an, sich etwas auszudenken. Die von solchen Halluzinationen ausgehende Gefahr ist bekannt. Umso bedrückender ist die Tatsache, dass laut einer aktuellen Studie nur rund ein Viertel (27 %) der Menschen in Deutschland die Ergebnisse, die KI für sie generiert, auf Korrektheit prüfen. Das sind zwar immerhin 7 Prozentpunkte mehr als bei gewöhnlichen Inhalten aus dem Internet, wie eine Studie des PR-COM Research Lab belegt, aber noch immer viel zu wenige.

Gegenmaßnahmen: Wer GenAI nutzt, sollte ausnahmslos alle von ihr produzierten Inhalte überprüfen. Dazu sollten User insbesondere die von der KI verwendeten Primärquellen checken oder - wenn möglich - Experten zur Prüfung der Korrektheit der Antworten zu Rate ziehen.

Killer #2: Bias

Die Anbieter aktueller KI-Assistenten haben sehr viel Arbeit in ihre Produkte gesteckt, um den Bias, also die Voreingenommenheit ihrer Modelle auszumerzen und sie zur Vorurteilsfreiheit zu erziehen. Verlassen sollten sich User auf die moralische und ethische Unantastbarkeit ihrer Modelle dennoch nicht. Zwar ist es unwahrscheinlich, dass Produkte großer Hersteller noch rassistische, sexistische oder sonstige ethisch fragwürdige Ansichten vertreten, aber komplett ausgeschlossen ist es eben nicht. Noch relativ hoch ist die Gefahr zudem bei der Nutzung von kostenlosen GenAI-Assistenten oder Nischen-Tools.

Gegenmaßnahmen: Auch im Zusammenhang mit Bias gilt es, die Ergebnisse einer KI-Befragung immer genauestens zu checken und mit geltenden Gesetzen sowie den vorherrschenden Wertevorstellungen unserer Gesellschaft abzugleichen. Wer dubiose KI-Tools meidet, kann sich zudem viel Ärger ersparen.

Killer #3: Content-Kannibalisierung

Immer mehr KI-generierter Content flutet das Internet - die logische Folge der zunehmenden Nutzung von GenAI-Assistenten. Leider trainieren KI-Entwickler ihre Chatbots und deren zugrunde liegende Sprachmodelle unter anderem mit genau diesen Inhalten. Und schlimmer noch: Der exponentiell steigende KI-Inhalt ist darüber hinaus auch der Wissensschatz, auf den die KI für ihre Antworten zurückgreift. Dadurch entsteht ein Teufelskreis aus künstlicher Intelligenz, die sich irgendwann nur noch mit von ihr selbst generierten Inhalten trainiert und auch nur noch von ihr produzierten Content als Basiswissen verwendet. Der Mensch wird aus dieser Gleichung immer weiter herausgekürzt. Die Qualität der Ergebnisse von Anfragen an die KI wird somit zunehmend abnehmen. Hinzu kommt, dass alle User irgendwann die gleichen Ergebnisse abrufen, nutzen und veröffentlichen.

Gegenmaßnahmen: Es ergibt Sinn, hin und wieder auch ohne KI zu agieren und Content zu produzieren, der frei von KI-generierten Inhalten ist und das Qualitätsmerkmal "Made in a human brain" trägt.

Killer #4: Wissensoligopol

Der KI-Markt ist derzeit auf einige wenige Big Player geschrumpft, die sich die enormen Rechenressourcen und Entwicklungskosten für generative KI leisten können. Dadurch entsteht zunehmend ein Wissensoligopol, in dem die großen Anbieter wie OpenAI, Google, Microsoft und DeepSeek zukünftig die Art und Weise bestimmen, welche Informationen überhaupt noch zugänglich sind. Schon jetzt gehen Suchanfragen auf den traditionellen Suchmaschinen deutlich zurück, die Ergebnisse zwar nach Algorithmen ranken, aber selten Treffer komplett ausblenden. Viel restriktiver agieren GenAI-Tools, deren implementierte Filter die freiheitliche Verbreitung von Wissen einzuschränken drohen: Was nicht mit den politischen und moralischen Ideen der Hersteller übereinstimmt, wird automatisch unterdrückt. Das erinnert ein wenig an das Wahrheitsministerium aus Orwells "1984".

Gegenmaßnahmen: Es ist wichtig, dass Unternehmen und offizielle Stellen auch unabhängige Projekte fördern und deren Nutzer- sowie Supporter-Basis wächst. Gleichzeitig sollten User es dringend verinnerlichen, dass nicht die KI-Assistenten der Wahrheit letzter Schluss sind. Das Nutzen möglichst vieler Quellen, um das eigene Wissen aufzubauen, ist immer besser als ein vermeintlicher "Single Point of Truth".

"Wir sind noch lange nicht so weit, dass ein blindes Vertrauen in generative KI zu rechtfertigen ist", betont Alain Blaes, CEO der Münchner Kommunikationsagentur PR-COM. "Es ist zwar logisch, dass wir eine vermeintlich arbeitserleichternde Technologie erst einmal ungern hinterfragen - doch dieser Bequemlichkeit wohnt, je nach Einsatzzweck, ein erhebliches Schadenspotenzial inne. Zum jetzigen Zeitpunkt lautet also die Maxime, restlos jede von GenAI generierte Antwort genauestens auf den Prüfstand zu stellen."



?Der Autor:

Alain Blaes ist CEO der Münchner Kommunikationsagentur PR-COM.

Bild: (C) PR-COM

Diese Artikel könnten Sie auch interessieren

Wissen in Zeiten von KI-Agenten: Warum Wissensmanagement zur strategischen Infrastruktur wird

Generative KI verändert, wie Unternehmen arbeiten - und sie schafft eine neue Anforderung: Wissen muss nicht nur für Menschen, sondern auch für KI-Assistenten und KI-Agenten zuverlässig nutzbar sein. Denn Agenten erledigen Aufgaben nicht „im Chat“, sondern greifen auf Informationen zu, folgen Regeln und Prozessen und liefern Ergebnisse - idealerweise mit Quellen und Nachvollziehbarkeit. Der Alltag z...

Weiterlesen

Die neuen Aufgaben des Chief Information Officers: Vom IT-Experten zum Unternehmensstrategen

WISSENplus
In der heutigen digitalisierten Wirtschaft unterstützt Technologie nicht nur das Geschäft - sie ist das Geschäft. Die Aufgaben des Chief Information Officers (CIO) haben sich daher vom Management von Systemen und Infrastrukturen hin zur Gestaltung von Strategien und zur Förderung der Transformation von Unternehmen entwickelt. Jedes Unternehmen ist heute auf digitale Fähigkeiten angewiesen, um zu a...

Weiterlesen

KI als Gamechanger für operative Exzellenz

WISSENplus
Die 6. jährliche Horváth-Studie "CxO Priorities" zeigt, dass die Neuordnung der Weltwirtschaft auch die deutsche Industrie maßgeblich verändert. Sie hat unter anderem gravierende Folgen für die Verteilung von Investitionen, bei denen Unternehmen zunehmend die operative Exzellenz in den Mittelpunkt stellen. Doch wie lässt sich die operative Exzellenz nachhaltig steigern? Die größten St...

Weiterlesen

„Die Speicherinfrastruktur entscheidet darüber, wie erfolgreich ein KI-Projekt wird“

WISSENplus
Künstliche Intelligenz verändert Geschäftsmodelle, Prozesse und Wertschöpfungsketten grundlegend. Doch während Algorithmen, Modelle und Use Cases viel Aufmerksamkeit erhalten, bleibt ein zentraler Erfolgsfaktor häufig im Hintergrund: die Daten- und Speicherinfrastruktur. Sie entscheidet darüber, ob KI-Projekte skalierbar, wirtschaftlich und dauerhaft erfolgreich umgesetzt werden können. Darüb...

Weiterlesen

IT-Security im Spannungsfeld von KI, Krisen und Compliance

WISSENplus
Neue Technologien bringen stets zusätzliche Risiken mit sich, die verstärkte Investitionen in die IT-Sicherheit erfordern. Das ist bei KI nicht anders. Allerdings birgt sie gleichzeitig auch enormes Potenzial für neue, ausgefeilte Abwehrmechanismen mit hohem Automatisierungsgrad....

Weiterlesen

Learning-Content erstellen: Mit diesen KI-Tools klappt’s! Ein Erfahrungsbericht.

Immer mehr KI-Tools unterstützen dabei, Lernangebote zu konzipieren, Inhalte aufzubereiten oder Trainingsmethoden weiterzuentwickeln. Von der Recherche über die Erstellung didaktischer Materialien bis hin zur Visualisierung von Präsentationen eröffnen sich neue Möglichkeiten, Lernprozesse effizienter und zugleich abwechslungsreicher zu gestalten. Doch welche Anwendungen sind im Arbeitsalltag tatsächli...

Weiterlesen

Von Pilotprojekten zur Strategie: In vier Stufen zur erfolgreichen KI-Transformation

Auch wenn Künstliche Intelligenz auf jeder Agenda steht, bleiben viele der angestoßenen Initiativen hinter ihren Erwartungen zurück. Der Grund ist selten technischer Natur, die Probleme liegen vielmehr in einem Vorgehen, das KI als isolierte Projekte und Einzelmaßnahmen versteht. Ein vierstufiges Framework zeigt, wie sich mit einem AI-First-Ansatz erste Experimente zu einem tragenden Element der Infrast...

Weiterlesen

Wenn aus Abfall Daten werden

Aus den Augen, aus dem Sinn - so geht es vermutlich vielen Leuten beim Thema Abfall. Für die Münchner MARTIN GmbH geht der Job dann aber erst los. Seit über 100 Jahren baut das Unternehmen thermische Abfallbehandlungsanlagen zur Energiegewinnung. Und neuerdings auch mit hochmoderner IoT-Datenauswertung. Um etwa den Zustand der Anlagen oder die Ausschüttung von Emissionen zu überprüfen, kommt mittlerwi...

Weiterlesen