Zum Hauptinhalt springen

The Data Economist Blog (DE) | Etablierung einer Data Inspired & Digital Culture

KI-Agenten skalieren, was vorhanden ist

Was KI-Agenten über Ihre Datenstrategie verraten

Stellen Sie sich einen KI-Agenten vor, der Angebote automatisiert erstellt: Er erkennt eine Kundenanfrage, prüft das CRM auf bestehende Beziehungen, ruft Produktdaten aus dem PIM ab, kalkuliert einen Preis und erzeugt ein druckfertiges Dokument. Auf dem Papier ist das ein Produktivitätsgewinn. In der Praxis hängt alles davon ab, was dieser Agent vorfindet.

Denn KI-Agenten tun nicht, was wir uns von ihnen erhoffen. Sie tun, was die Daten ihnen erlauben.

Der Skaleneffekt als Offenbarungseid

Nehmen wir den beschriebenen Fall: Der Agent erkennt nicht, dass der Anfragende ein bestehender Kunde ist. Er legt eine Dublette im CRM an. Auf Basis dieser Dublette fehlt ihm der historische Kontext, wählt er möglicherweise den falschen Service und kalkuliert am Preisrahmen vorbei. Das Angebot enthält sachliche Fehler.

Bei zwei Angeboten pro Tag ist das beherrschbar. Ein aufmerksamer Mitarbeiter fängt es ab, korrigiert, lernt. Der Schaden bleibt begrenzt.

Bei hundert Angeboten täglich verändert sich die Ökonomie grundlegend. Der Human-in-the-Loop, der ursprünglich als Qualitätssicherung gedacht war, wird zur Engpassressource. Die Kapazität eines Menschen zur konzentrierten Fehlerprüfung ist endlich und unelastisch. Gleichzeitig wächst der Fehlerstrom proportional zur Systemaktivität. Das Ergebnis: steigende Prüfkosten bei sinkender Prüfqualität. Wer jetzt nachhält, wie viele Vollzeitkräfte benötigt werden, um tausend fehlerhafte Angebote täglich abzufangen, erhält eine Zahl, die jeden ursprünglichen Effizienzgewinn überkompensiert.

Automatisierung ist kein Qualitätsfilter

An dieser Stelle lohnt ein nüchterner Blick auf das, was sich verändert hat. Automatisierte Angebotslösungen existieren seit Jahren. Sie kämpften mit denselben Datenqualitätsproblemen wie heute. Was sich durch KI-Agenten verändert, ist nicht die Art des Problems, sondern seine Ausprägungsgeschwindigkeit.

Ein Agent operiert ohne Ermüdung, ohne Zögerlichkeit und ohne den intuitiven Zweifel, der einen erfahrenen Mitarbeiter gelegentlich pausieren lässt. Er skaliert konsequent, präzise und schnell, was er vorfindet. Wer schlechte Daten hat, bekommt damit schlechte Ergebnisse in industrieller Geschwindigkeit.

Es gibt Ansätze, Agenten gezielt zur Erkennung und Behebung von Datenqualitätsproblemen einzusetzen. Das ist konzeptionell reizvoll, löst aber keine grundlegende Spannung: Auch dieser Metaagent braucht menschliche Überwachung. KI irrt. Die Frage ist nicht, ob sie Fehler macht, sondern wann und mit welchen Konsequenzen. Wer glaubt, eine Qualitätsschwäche durch eine zweite KI-Schicht zu heilen, verschiebt das Problem nach oben, ohne das Fundament zu stabilisieren.

Was dateninspirierte Unternehmen vor der Agenteneinführung tun

Organisationen, die KI-Agenten mit messbarem Effekt betreiben, behandeln Datenqualität nicht als technisches Vorprojekt, sondern als strategische Investitionsentscheidung. Sie beantworten drei Fragen, bevor ein Agent produktiv geht:

Wie hoch ist unsere aktuelle Datenqualität in den betroffenen Quellsystemen? Das ist keine rhetorische Frage. Sie erfordert Messbarkeit: Dublettquoten im CRM, Vollständigkeitsgrade im PIM, semantische Konsistenz zwischen Systemen. Ohne Baseline keine Qualitätsstrategie.

Welche Fehlertoleranz hat der Agentenprozess? Nicht jede Datenqualitätsschwäche hat denselben Effekt. Ein falscher Zusatzname im Kundenprofil ist unkritisch. Eine falsche Kundenklassifikation kann einen Preisrahmen kippen. Dateninspirierte Organisationen priorisieren Qualitätsmaßnahmen nach ihrem Hebel im Prozess, nicht nach generischen Reifegradforderungen.

Wo ist Human-in-the-Loop Verstärkung, und wo ist er Kompensation? Das ist die entscheidende Unterscheidung. Menschliche Prüfung als letzte Absicherung bei einem robusten Prozess ist sinnvoll. Menschliche Prüfung als Hauptmechanismus gegen systematische Datenfehler ist operativ nicht skalierbar und ökonomisch nicht vertretbar.

Der eigentliche Hebel

KI-Agenten sind Multiplikatoren. Ihr Wertbeitrag steht in direktem Verhältnis zur Qualität des Fundaments, auf dem sie operieren. Organisationen, die dieses Fundament kennen, können präzise entscheiden, welche Prozesse zur Automatisierung bereit sind, welche Qualitätslücken vor der Einführung geschlossen werden müssen und welche Prüfmechanismen wirklich nötig sind.

Das ist keine defensive Haltung. Es ist die Voraussetzung dafür, dass Automatisierungsgewinne real sind und nicht durch Fehlerbearbeitungskosten neutralisiert werden.

Der Vorsprung liegt nicht darin, Agenten früh einzuführen. Er entsteht dort, wo Agenten auf belastbare Daten treffen.

Simulation

Die nachfolgende Simulation macht greifbar, was in der strategischen Diskussion oft abstrakt bleibt: Datenqualitätsprobleme in einzelnen Quellsystemen multiplizieren sich im Agentenprozess und werden mit steigendem Volumen zur messbaren betrieblichen Belastung. Passen Sie die Fehlerquoten für CRM, PIM und Preissystem an Ihre eigene Systemrealität an und beobachten Sie, wie sich die Fehlerwahrscheinlichkeit auf Ihre tägliche Angebotsmenge auswirkt.

DQ-Fehlerfortpflanzung im KI-Agenten-Prozess

Simulation · Basis: 10.000 Datensätze

DQ-Fehlerfortpflanzung im KI-Agenten-Prozess

KI-AGENT Angebotsprozess CRM Kundendaten Fehlerrate: 15% PIM Produktdaten Fehlerrate: 20% Preissystem Preiskonditionen Fehlerrate: 10% Angebot ~3.880 fehlerhaft (38,8%)
CRM Fehlerrate 15%
PIM Fehlerrate 20%
Preissystem Fehlerrate 10%

Datensätze gesamt

10.000

100,0 %

Wahrscheinlich fehlerfrei

6.120

61,2 %

Wahrscheinlich fehlerhaft

3.880

38,8 %

fehlerfrei fehlerhaft

Wie viele Angebote werden fehlerhaft sein?

Angebote pro Tag 100

Angebote gesamt

100

pro Tag

Davon fehlerfrei

61

61,2 %

Davon fehlerhaft

39

38,8 %

P(fehlerfrei) = (1−e₁) × (1−e₂) × (1−e₃) · Unabhängige Fehlerwahrscheinlichkeit je Quellsystem

In meinen Workshops erarbeite  ich mit den Teilnehmenden die Methode der Logikbäume. Diese Ursache-Wirkungs-Ketten machen sichtbar, wie operative Entscheidungen auf strategische Unternehmensziele durchschlagen und wo Durchbruchslösungen ansetzen müssen. Die Simulation ist eine kompakte digitale Entsprechung dieses Denkwerkzeugs: Sie verbindet eine konkrete Datenlage mit ihren skalierenden Konsequenzen und schafft damit die Grundlage für eine informierte strategische Entscheidung.

Weitere interessante Artikel:

Datenlogistik, Data Strategy, AI Strategy, Daten & KI Strategie, Datenqualität und KI, KI Strategie, Datendurchgängigkeit, Datendurchsatz

  • Geändert am .
  • Aufrufe: 25