Artikel

Datenqualität – entscheidend für Erfolg oder Misserfolg

LinkedinE-Mail

Die Qualität von Daten ist nicht nur im Factoring von entscheidender Bedeutung. Egal, von welchen Systemen oder Verarbeitungsprozessen die Rede ist – ob klassisch-regelbasiert oder KI-gesteuert: Wer mangelnde Datenqualität zulässt, darf sich über bescheidene Ergebnisse nicht beschweren. Kehren wir die „Garbage in, garbage out“-Regel um in „Quality in, quality out“, so profitieren insbesondere Factoring- oder Supply Chain Finance-Anbieter erheblich davon – und zwar in mehrfacher Hinsicht. Wir möchten in diesem kurzen Artikel darauf eingehen, was man allgemein unter „Datenqualität“ versteht, welche Vorteile eine gute Qualität von Daten bietet, worauf beim eigenen Datenmanagement zu achten ist und warum gerade bei der KI-gesteuerten Analyse eine gute Datenbasis von entscheidender Bedeutung sein wird.

 

Gehen wir einige Schritte zurück: Was ist mit Datenqualität überhaupt gemeint? Im Kern geht es dabei um folgende Faktoren: die Vollständigkeit der Daten, deren Richtigkeit, Aktualität, Konsistenz und Nachvollziehbarkeit.1,2 In der nachfolgenden Übersicht sind einige Details aufgeführt.

 

  • Vollständigkeit: Es müssen alle relevanten Informationen zur Forderung vorliegen wie Debitorendaten (Rechtsform, Adresse, Bonität), Zahlungsziel, Liefernachweis, Rechnungsreferenzen etc.
  • Richtigkeit: Gemeint ist, dass keine Rechnungsfehler vorliegen, die Beträge/Mehrwertsteuer/Zahlungsziele korrekt sind und keine Dubletten existieren
  • Aktualität: Alle Bonitätsinformationen und Limite sollten aktuell sein.
  • Konsistenz: Stimmen Daten über verschiedene Systeme hinweg überein (Core Banking, Risikosysteme, Reporting)?
  • Nachvollziehbarkeit: Datenherkunft, Veränderungshistorie und Verarbeitungsschritte sind transparent dokumentiert und jederzeit rekonstruierbar.1,2

Was eine gute Datenqualität bringt

So weit so gut. Welche Vorteile bietet nun eine gute Datenqualität aus Sicht von Factoring- oder Supply Chain Finance-Anbietern? Im Einzelnen sind das ein verbessertes Risikomanagement (geringere Ausfallrisiken, bessere Liquiditätsprognosen), eine höhere betriebliche Effizienz (weniger manuelles Nachfassen, bessere Automatisierung) und nicht zuletzt weniger Konflikte mit Regulierungsvorgaben (Compliance, DORA etc.). Kurzum: Die Datenqualität hat eine unmittelbare Auswirkung auf das eigene Risiko, die Profitabilität, die regulatorische Sicherheit sowie die Wettbewerbsfähigkeit.

 

Schauen wir beispielsweise auf die Risikoanalyse seitens eines Factoring-Anbieters, kann im Rahmen dieser eine schlechte Datenqualität schwerwiegendste Folgen haben – sie reicht von finanziellem Ruin bis hin zu strafrechtlicher Verfolgung. Außerdem sind im Finanzsektor hochwertige Daten die Grundlage für Sicherheitsstrategien sowie eine wirksame Compliance.3 Wem das als Argument noch nicht ausreicht: Laut Gartner verlieren Unternehmen aufgrund schlechter Datenqualität jährlich bis zu mehreren Millionen US-Dollar.4 Was also ist zu tun, um innerhalb eines Gesamtunternehmens eine bestmögliche Datenqualität zu gewährleisten? Wie sähe ein Weg vom rein reaktiven Ansatz (Feuerwehr) zum proaktiven Datenmanagement aus?

Daten als Vermögenswert betrachten

Eine mögliche Lösung: Das Errichten eines „Data Center of Excellence“. Hierbei handelt es sich um eine zentralisierte Funktion, die unternehmensweite Standards, Governance und Best Practices für das Datenmanagement festlegt. Ein solches „Data Center of Excellence“ fungiert als eine Art Regulierungsbehörde für alle datenbezogenen Initiativen und stellt sicher, dass Daten als strategischer Vermögenswert behandelt werden. Es geht hier also um einen Prozess, der Unternehmen dabei hilft, von fragmentierter Datenverwaltung zu einem strukturierten, skalierbaren Ansatz überzugehen. Dieser ermöglicht erst fortschrittliche Analysen, KI und digitale Transformation.5 Man spricht in diesem Zusammenhang auch von Daten als „Single Source of Truth“ (SSOT).

KMUS: Knappe Ressourcen effektiv einsetzen

Bei KMUs, die mit knapperen Ressourcen handhaben müssen, ist eine sorgfältige Planung und Umsetzung eines „Data Center of Excellence“ umso wichtiger. Zuerst muss eine klare Zielsetzung formuliert werden: Welche kurz- und langfristigen Ziele hinsichtlich der Datenqualität werden verfolgt, wie soll deren Erreichung konkret gemessen werden, sind bestimmte Meilensteine vorgesehen? Im Anschluss daran sind die Rollen intern zu verteilen: Wer leitet das Projekt, wer ist für die Datenanalyse zuständig? Als nächstes müssen die Datenstandards (Was wollen wir haben? Was müssen wir erfüllen?) und datenbezogene interne Prozesse festgelegt werden. Letztlich geht es darum, geeignete Tools für die Zusammenarbeit der einzelnen Teammitglieder sowie für das eigentliche Datenmanagement inklusive Analyse und Visualisierung zu finden.6 Hier gibt es etliche Tool-Betreiber die auch bei kleineren Organisationen und entsprechend geringeren Datenvolumina ihre Services anbieten.

Datenqualität und KI

Betrachten wir in diesem Zusammenhang nun den immer weiter voranschreitenden Einsatz von KI. Ob und in welcher Qualität Daten vorliegen, spielt bei KI-gesteuerten Systemen eine umso bedeutendere Rolle. Denn: Beim Einsatz von KI-Agenten agieren diese beispielsweise weitgehend autonom auf Basis der Daten und Anweisungen, die sie erhalten. In solch einem Szenario ist bewusst keine menschliche Kontrollinstanz mehr vorgesehen, die Fehler, Inkonsistenzen oder Abweichungen nach einer Entscheidung aufdeckt. Folglich kann eine schlechte Datenqualität in einem agentenbasierten Modell sogar zu einem systemischen Risiko führen, da Fehler maschinell verstärkt werden.7

 

Eines ist sicher: Die Zukunft des Datenmanagements liegt im „autonomen Datenqualitätsmanagement“, bei dem KI-gesteuerte Tools proaktiv die Bereinigung, Anreicherung und Überwachung mit minimaler manueller Überwachung verwalten. Diese Systeme nutzen Machine Learning (ML), um komplexe Muster zu erkennen, die auf Betrug oder Datenkorruption hindeuten könnten, bevor sie sich auf die Geschäftsergebnisse auswirken.8 Derartige automatisierten „Decision Engines“ benötigen qualitativ hochwertige, konsistente und reichhaltige Daten – sonst wirken diese Technologien nicht zuverlässig. Sprich: Setzt man auf Daten von geringer Qualität, kann die Aufmerksamkeit eines Modells unweigerlich auf die falschen Merkmale gelenkt werden. Deshalb wird beim so genannten datenzentrierten Ansatz Qualität vor Quantität priorisiert.9 An dieser Stelle kommen wir wieder zur Betrachtung von Daten als SSOT, bei der im Wesentlichen um eine Entkoppelung von Daten und Logik geht.

Wichtig: Data-First-Kultur etablieren

Letztendlich sind technische Tools und Frameworks nur so effektiv wie die Kultur, die sie unterstützt. Datenqualität ist eine Unternehmensdisziplin und nicht nur eine IT-Aufgabe. Daher ist es von entscheidender Bedeutung, eine Data-First-Kultur im Unternehmen zu etablieren. Der Übergang zu einer solchen Kultur kann allerdings auf internen Widerstand stoßen. Man muss daher die Vorteile klar kommunizieren und Schulungen anbieten, um alle Mitarbeiter*innen in den Veränderungsprozess einzubeziehen.10 Dabei ist es wichtig, Datenprozesse zu installieren, die für jede*n Beteiligte*n zugänglich sowie verständlich sind. Andernfalls führt das zu Frustrationen bei Mitarbeiter*innen und das ganze System gerät schnell ins Wanken.11

 

Des Weiteren müssen die Erfolge von datengesteuerten Initiativen auch messbar und bei Bedarf anpassbar sein. Es sollte möglich sein, bei der Verwendung von Daten in den verschiedenen Teams Hindernisse zu identifizieren und Verbesserungen umzusetzen.12 Sonst läuft man auch hier Gefahr, dass zuständige Mitarbeiter*innen nach einer ersten Euphorie-Phase schnell den Überblick und anschließend auch die Lust daran verlieren, das Projekt weiter voranzutreiben. Zu guter Letzt sollte eine Zusammenarbeit zwischen einzelnen Abteilungen gefördert werden. Wenn Teams bei gemeinsamen Daten zusammenarbeiten, fördert dies das Gefühl der kollektiven Verantwortung und stärkt die kulturelle Bedeutung der Datenorientierung. Die Einführung und Aufrechterhaltung einer datenorientierten Kultur ist demnach als Marathon zu betrachten, nicht als Sprint.12

Fazit

Die Datenqualität spielt eine immer größere Rolle und ist bei KI-gesteuerten Systemen sogar einer der entscheidenden Faktoren über Erfolg oder Misserfolg. Es ist daher zu empfehlen, als zukunftsorientiertes Unternehmen das eigene Datenqualitäts-Management systematisch anzugehen und in klare Standards sowie Werkzeuge zu investieren. Eine nachhaltige datenorientierte Kultur bietet dabei die Grundlage für das Bewältigen von Veränderungen und Fördern von Innovationen. Unternehmen, die diesem Ansatz folgen, werden in einer datenreichen Zukunft nicht nur überleben, sondern auch florieren.12

Quellen:

1 Monte Carlo Data, 2025: The 6 Data Quality Dimensions (Plus 1 You Can’t Ignore) With Examples

2 IBM: Was ist Datenqualität?

3 Data Ladder, 2026: Why Data Quality Is the Foundation of Effective Compliance in Security and Investigations?

4 Gartner: Data Quality: Best Practices for Accurate Insights

5 lake FS, 2026: Building a Data Center of Excellence for Modern Data Teams

6 Revolent: 5 steps to building your Data Center of Excellence

7 The Forrester Wave™: Data Quality Solutions, 2026: How to read it and why it matters now

8 delpha, 2025: The Ultimate Guide to Data Quality and AI in CRM: Unlocking Maximum Performance

9 Human First, 2021: The Importance of High-Quality Training Data

10 statworx, 2024: Wie Führungskräfte die Datenkultur im Unternehmen stärken können

11 datacoves: 3 Core Pillars to Achieve a Data-Driven Culture

12 James Fee, 2024: Sustaining a Data-First Culture: Turning Principles into Long-Term Success