Datenqualität und KI: FOMO, Studien und warum die meisten Unternehmen am falschen Ende anfangen

LeadIn Datenqualität und KI: FOMO, Studien und warum die meisten Unternehmen am falschen Ende anfangen

Datenqualität und KI: FOMO, Studien und warum die meisten Unternehmen am falschen Ende anfangen

Wer in der vergangenen Zeit den Feed auf LinkedIn und anderen Plattformen verfolgt hat, dem wurden mit hoher Wahrscheinlichkeit auch Beiträge zur Datenqualität als entscheidendem Erfolgsfaktor für KI ausgespielt. Mit Grafiken untermalt und fast immer mit der impliziten Aufforderung, doch bitte zunächst die Daten aufzuräumen, bevor man sinnvoll über den Einsatz von KI nachdenkt.

All das ist nicht grundsätzlich falsch. Aber es passt auch nicht in jedem Fall zur Realität in Unternehmen.

Ja, die Anforderung „Datenqualität ist wichtig“ trifft zu, aber niemand weiß abschließend, was konkret zu tun ist.

Zur Einordnung folgender Hinweis: Dieser Artikel enthält keine Emojis und kein FOMO. Stattdessen haben wir eine quellenbasierte Einordnung vorgenommen und zeigen eine andere Perspektive darauf, was der Begriff „Datenqualität“ im KI-Kontext für mittelständische Unternehmen bedeutet.

TL;DR:
Datenqualität ist kein isoliertes Datenproblem, sondern das Ergebnis organisatorischer Reife. Wer ein „Datenqualitätsprojekt“ startet, ohne vorher Anwendungsfälle zu identifizieren, Prozesse zu definieren und Wissen zu dokumentieren, investiert in eine Fassade ohne Fundament. Datenqualität verbessert sich nicht durch Bereinigungskampagnen, sondern als emergentes Ergebnis eines dynamischen Reifeprozesses, der nie abgeschlossen ist.

Jenseits von FOMO – was sagen Studien und wo sind die blinden Flecken?

Die gute Nachricht ist, dass die Informationslage zum Thema „Datenqualität und KI“ belastbare Rückschlüsse zulässt.

Gartner prognostizierte, dass 60 Prozent aller KI-Projekte ohne KI-fähige Daten bis 2026 aufgegeben werden [1]. Die zugrunde liegende Befragung von 248 Datenmanagement-Verantwortlichen wurde bereits im Jahr 2024 vorgenommen. 63 Prozent der Organisationen verfügten demnach entweder nicht über die richtigen Datenmanagement-Praktiken für KI oder waren sich dessen nicht sicher [1].

Zur Einordnung: Seit 2024 hat sich das Fähigkeitsprofil von KI-Systemen und damit die Fähigkeit der Informationsextraktion deutlich weiterentwickelt. Was sich allerdings nicht verändert hat: Die Daten müssen vorhanden und zugänglich sein, bevor KI sie verarbeiten kann. Bessere KI-Modelle verschieben die Anforderungen an Daten – sie ersetzen sie nicht.

Auf dem Gartner Data & Analytics Summit 2026 wurde die ursprüngliche Prognose bestätigt und verschärft: Mindestens die Hälfte aller GenAI-Projekte sei nach dem Proof of Concept eingestellt worden.

Zur Einordnung: Dies geschah jedoch nicht allein wegen der Datenqualität, sondern auch wegen unklarem Wertschöpfungsbeitrag und eskalierenden Kosten [2].

Die Precisely/Drexel-University-Studie von Januar 2026 – eine Befragung von über 500 Daten- und Analytik-Führungskräften in den USA und EMEA – legt eine bemerkenswerte Diskrepanz offen: 88 Prozent der Führungskräfte geben an, ihre Daten seien KI-bereit. Gleichzeitig nennen 43 Prozent der Befragten Datenbereitschaft als das größte Hindernis für die Verknüpfung von KI mit Geschäftszielen [3].

Zur Einordnung: Was zunächst nach einem Widerspruch klingt, ist in Wirklichkeit ein Symptom, dem Precisely den Namen „Agentic AI Data Integrity Gap“ gegeben hat. Es beschreibt den Umstand, dass Organisationen davon überzeugt sind, gut vorbereitet zu sein, weil sie über eine grundlegend ausreichende Infrastruktur verfügen. Aber das Vorhandensein von Infrastruktur darf nicht mit der Fähigkeit verwechselt werden, diese Infrastruktur im Kontext konkreter KI-Anwendungsfälle auch wirksam einzusetzen [3].

Die BARC Trend Monitor-Studie 2026 – mit 1.579 Befragten eine der umfangreichsten Erhebungen in diesem Bereich – formuliert die entscheidende Erkenntnis: Die Organisationen, die am weitesten sind, behandeln Datenqualität als eine geteilte Verantwortung, nicht als IT-Funktion [4]. Und die Dataversity Trends in Data Management-Befragung 2025 bestätigt: Trotz wachsendem Bewusstsein berichten nur 15 Prozent aller Teilnehmer von einer ausgereiften Data Governance. 61 Prozent nennen Datenqualität als ihre größte Herausforderung [5].

Zur Einordnung: Auch diese Ergebnisse sind wichtig. Der Stellenwert von Data Governance kann gar nicht hoch genug eingeordnet werden. Jedoch zeigt sich in der Zusammenschau vielleicht ein blinder Fleck: Datenqualität wird als ein Problem beschrieben. Und für Probleme gibt es meist auch Lösungen. Die Frage, die weniger beleuchtet wird, ist die nach dem „Warum“ – warum die Datenqualität in vielen Unternehmen so ist, wie sie eben ist.

Was meinen wir eigentlich, wenn wir von „Datenqualität“ sprechen?

Bevor wir der Frage nach dem „Warum“ nachgehen, lohnt sich vielleicht ein Schritt zurück. Denn in der aktuellen Diskussion wird „Datenqualität“ oft wie ein absoluter Zustand behandelt: Die Datenqualität ist entweder gut oder schlecht. In der Praxis zeigen sich viele Zwischentöne.

Die klassischen Dimensionen von Datenqualität – Vollständigkeit, Konsistenz, Aktualität, Zugänglichkeit – sind als Rahmen durchaus brauchbar. Aber sie sind erst dann bewertbar, wenn man weiß, wofür die Daten eigentlich gebraucht werden. Datenqualität ist kein absoluter Zustand. Sie ist immer relativ zum Anwendungsfall.

Ein Beispiel: Wenn KI im Marketing eingesetzt wird, um Kundensegmente zu analysieren, dann müssen die relevanten Daten für genau diesen Zweck verfügbar, aktuell und konsistent sein. Die Daten aus der Fertigungssteuerung spielen dabei keine Rolle. „Gute Daten“ in einem Silo können für einen lokalen Anwendungsfall völlig ausreichen. Umgekehrt hilft es wenig, wenn Daten unternehmensweit in einem System zusammengeführt wurden, aber den konkreten Anwendungsfall nicht unterstützen können, weil sie unvollständig oder veraltet sind.

Was bedeutet das für die Praxis? Wer „Datenqualität verbessern“ als abstraktes Ziel formuliert, ohne die konkreten Anwendungsfälle zu benennen, der wird sich schwertun, den Schwellenwert für „gute Datenqualität“ zu definieren. Und genau an diesem Punkt zeigt sich, warum der Use Case und Datenqualität nicht isoliert betrachtet werden sollten.

Warum ist „Datenqualität“ im Mittelstand oft ein systemisches Problem?

Lösen wir uns von der generalisierten Aussage, dass Datenqualität entscheidend ist, und gehen wir der Frage nach dem „Warum“ nach. „Schlechte“ Datenqualität ist in den meisten mittelständischen Unternehmen kein Versagen einzelner Mitarbeitender und kein Zeichen mangelnder Sorgfalt. Sie ist das logische Ergebnis gewachsener Strukturen und damit systemimmanent.

Wer den deutschen Mittelstand kennt, weiß, dass Unternehmen mit 50 bis 250 Mitarbeitenden organisch gewachsen und selten nach dem Lehrbuch organisiert sind, sondern ebenso gewachsenen Organisationsstrukturen folgen.

Prozesse sind nicht am Reißbrett geplant worden, sondern über Jahre verfeinert worden. Oft pragmatisch und effektiv, aber selten bis ins Detail dokumentiert. Entscheidungswissen steckt nicht allein in Prozesshandbüchern, sondern eben auch in den Köpfen erfahrener Mitarbeitender. IT-Systeme – von der simplen Tabellenkalkulation, ohne die das Unternehmen nicht existieren könnte, bis zum ERP-System – wurden eingeführt, um konkrete Probleme zu lösen und effektiver zu werden. Eine kohärente Datenarchitektur war dabei ein sekundäres Ziel. Und im Lauf der Zeit sind Datensilos und andere Redundanzen entstanden.

Das ist kein Vorwurf. Das ist die Realität in Unternehmen. Was zählt, ist Pragmatismus vor Perfektion, umsetzbare Lösungen vor idealer Struktur, Umsetzung vor akademischem Elfenbeinturm. Bei allen Nachteilen hat diese Herangehensweise viele Mittelständler überhaupt erst zu solchen gemacht.

Die Konsequenz ist, dass die Datenqualität, die für operative KI-Anwendungen erforderlich ist, sich nicht durch ein isoliertes „Datenbereinigungsprojekt“ sicherstellen lässt. Daten entstehen nicht von allein. Sie sind das Ergebnis von Prozessen und von den Systemen, die zur Umsetzung dieser Prozesse implementiert wurden.

Ein von der Schweizer Beratung Initcon [6] veröffentlichtes White Paper, das Erkenntnisse von RAND, Gartner und akademischer Forschung zusammenfasst, identifizierte zwei branchenübergreifende Hauptursachen für das Scheitern von KI-Projekten: erstens das Versäumnis, den organisatorischen Bedarf zu ermitteln, und zweitens fehlende Datenqualität.

Das Versäumnis, den organisatorischen Bedarf zu ermitteln, beschreibt im Kern das, was als Imagination Gap bezeichnet wird: Unternehmen implementieren KI, ohne vorher systematisch geklärt zu haben, welches konkrete Problem oder welcher Prozess damit gelöst oder vereinfacht werden soll. [Die Imagination Gap – Warum Vorstellungskraft der eigentliche KI-Engpass ist]

Was auffällt: Beide Ursachen sind nicht nur technischer Natur, sondern eng mit organisatorischen Fragen verknüpft. [KI in der Produktion – anderer Hallenboden, ähnliche Herausforderungen?]

Oder anders formuliert: Der Status der Datenqualität ist nicht die Ursache gescheiterter KI-Projekte, sondern selbst ein Symptom einer Organisation, die ihre Prozesse, ihr Wissen und ihre Anwendungsfälle noch nicht ausreichend durchdrungen hat.

Datenqualität und KI: FOMO, Studien und warum die meisten Unternehmen am falschen Ende anfangen

Wenn Datenqualität nicht der Startpunkt ist – was dann?

Die Versuchung ist groß, mit den Daten anzufangen. Es klingt logisch: Erst aufräumen, dann automatisieren. Erst die Datenbasis schaffen, dann KI einsetzen.

Das Problem: Sie wissen erst, welche Datenqualität Sie tatsächlich benötigen, wenn Sie wissen, welchen Prozess Sie mit KI unterstützen wollen. Daten existieren nicht im Vakuum. Sie sind immer an einen Kontext gebunden – an einen Prozess, eine Entscheidung, einen Workflow. Ohne diesen Kontext ist „Daten aufräumen“ eine Sisyphosaufgabe.

Dazu passt, was wir in einem früheren Artikel über die Imagination Gap ausführlich beschrieben haben [Die Imagination Gap – Warum Vorstellungskraft der eigentliche KI-Engpass ist]. 85 Prozent aller Mitarbeitenden sehen keinen wertschöpfenden Anwendungsfall für KI in ihrer täglichen Arbeit – nicht, weil die Tools fehlen, sondern weil die Vorstellungskraft fehlt, welche Prozesse sinnvoll mit KI unterstützt werden könnten [7].

Die RAND Corporation stellte fest, dass über 80 Prozent aller KI-Projekte scheitern – Ursache Nummer 1: ein grundlegendes Missverständnis darüber, welches Problem eigentlich gelöst werden soll [8].

Das ist die Imagination Gap in der Praxis. Und sie hat eine direkte Auswirkung auf die Datenqualität: Wer den falschen Use-Case adressiert, bereitet die falschen Daten auf. Wer gar keinen Use Case hat, sortiert Daten neu und verwechselt dabei, dass Sortieren kein Bereinigungsprojekt ist.

Datenqualität als emergentes Ergebnis: Der Reifezyklus

Warum „Datenqualität“ als ein Problem betrachten, das einmalig gelöst werden muss und das am Anfang aller KI-Bemühungen steht? Warum nicht stattdessen gute Datenqualität als das emergente Ergebnis eines dynamischen Reifeprozesses einordnen? Nicht als Ergebnis von Bereinigungskampagnen, sondern als ein Nebenprodukt, das mit jedem Durchlauf inkrementell verbessert wird – innerhalb eines Zyklus, der an der richtigen Stelle ansetzt.

Zyklische Herangehensweise für mehr Datenqualität

Eine bessere Datenqualität durch eine zyklische Herangehensweise zu erreichen, hat fünf Stationen, die einander verstärken:

Imagination Gap adressieren: Bevor ein einziges Datenpaket angefasst wird, steht die Frage: Wo entsteht in unserem Unternehmen Reibung, die wir nicht mehr hinterfragen? Welche Prozesse kosten Zeit, ohne Wertschöpfung zu erzeugen? Die Imagination Gap ist der Ausgangspunkt – und zugleich der Gradmesser für die organisatorische Reife. [Die Imagination Gap – Warum Vorstellungskraft der eigentliche KI-Engpass ist]

Mit einem Anwendungsfall starten: Aus der geschärften unternehmerischen Wahrnehmung entsteht ein konkreter Use Case. Beim ersten Durchlauf ist dieser vielleicht noch nicht optimal wertschöpfend, und das ist in Ordnung. Ein Unternehmen, das zum ersten Mal systematisch einen KI-Anwendungsfall definiert, lernt dabei mehr über seine eigenen Prozesse als in jedem Datenbereinigungsprojekt.

Prozesse definieren und dokumentieren: Der gewählte Use Case macht sofort sichtbar, welche (Teil-)Prozesse undokumentiert, widersprüchlich oder informell sind. Das ist kein Scheitern – es ist die wertvollste Erkenntnis des ganzen Zyklus. Denn was nicht sauber beschrieben werden kann, lässt sich auch nicht sinnvoll automatisieren. [Ist Ihr Unternehmen bereit für KI?]

Wissen explizit machen: Bei vielen Mittelständlern existiert das entscheidende Prozesswissen in den Köpfen einzelner Mitarbeitender – als implizites Erfahrungswissen, das bisher nicht verschriftlicht wurde. Mit dem demografischen Wandel wird dieses Wissen in den kommenden Jahren unwiederbringlich verloren gehen, wenn es nicht in dokumentierte Prozessbeschreibungen, SOPs und Entscheidungslogiken überführt wird. Dieser Schritt schafft die Grundlage für Datenqualität – nicht umgekehrt. [KI-Signale Anfang 2026]

Umsetzen, lernen, wiederholen: Jetzt – und erst jetzt – wird die Datenqualität greifbar und steht auf dem Prüfstand. Nicht als abstraktes Ziel, sondern als konkretes Ergebnis der vorherigen Schritte. Und mit jedem Durchlauf des Zyklus geschieht etwas Entscheidendes: Die Imagination Gap wird kleiner. Die Organisation erkennt neue Anwendungsfälle, die beim ersten Durchlauf noch unsichtbar waren. Prozesse werden schärfer definiert. Das Wissen wird systematischer dokumentiert. Und die Datenqualität verbessert sich – nicht weil jemand ein Datenprojekt gestartet hat, sondern weil die Organisation reifer geworden ist.

Warum dieser Zyklus nie abgeschlossen ist

Ein lineares Stufenmodell suggeriert: Alle Stufen genommen, Problem gelöst. Die Realität sieht anders aus und ist mit mehr Arbeit verbunden.

Neue Prozesse, die heute noch gar nicht vorstellbar sind, werden hinzukommen. Bestehende Prozesse werden wegfallen, weil sie sich als nicht wertschöpfend erweisen. Die Technologie wird sich weiterentwickeln und neue Möglichkeiten eröffnen, die heute noch jenseits unserer Vorstellungskraft liegen.

Das bedeutet: Die Imagination Gap wird nie vollständig geschlossen sein. Das ist kein Makel, sondern ein Zeichen organisatorischer Lebendigkeit. Unternehmen, die aufhören, neue Möglichkeiten zu sehen, stagnieren. Das Ziel ist nicht, die Gap auf null zu reduzieren, sondern eine Organisation zu schaffen, die besser darin wird, diese Gap produktiv zu nutzen. Mit jedem Durchlauf.

Die IDC-Zahlen bestätigen diesen Ansatz: Organisationen mit ausgereifter Data Governance – also Organisationen, die diesen Zyklus bereits mehrfach durchlaufen haben – erzielen 24,1 Prozent mehr Umsatz und 25,4 Prozent Kostenreduktion durch KI [5]. Das ist kein Zufall. Es ist das Ergebnis kumulativer organisatorischer Reifung.

Faster und Further: Zwei Modi, ein entscheidender Unterschied

In diesem Zusammenhang lohnt eine Unterscheidung, die wir für grundlegend halten.

“If you want to go fast, go alone. If you want to go far, go together.”

Faster bedeutet: KI auf bestehende Prozesse ansetzen, um sie zu beschleunigen. E-Mails schneller beantworten, Berichte schneller erstellen, Daten schneller bereinigen. Das ist nützlich, aber begrenzt. KI ist darauf reduziert, den Status quo zu beschleunigen.

Further bedeutet: KI nutzen, um Prozesse grundsätzlich zu hinterfragen. Nicht die Frage „Wie machen wir das schneller?“, sondern „Würden wir diesen Prozess heute überhaupt noch so aufsetzen und wenn ja, wie sieht der Optimalfall aus?“ [Wenn KI die Arbeit intensiviert, statt sie zu reduzieren]

In unserem Imagination-Gap-Artikel haben wir eine Beobachtung von Forschenden der Universität Leeds beschrieben: „efficient inefficiency“ – Unternehmen, die mit KI Aufgaben beschleunigen, die von Anfang an überflüssig waren [9]. Datenbereinigungsprojekte ohne klaren Use Case fallen in exakt diese Kategorie: Sie machen etwas faster, das die Organisation nicht further bringt. Oder eben „Rotation“ ohne „Traktion“.

Der Reifezyklus, den wir beschreiben, beginnt bei further – bei der Frage, welche Prozesse tatsächlich wertschöpfend sind – und nutzt faster dort, wo der Kontext klar ist. Das ist der Unterschied zwischen Aktionismus und Fortschritt.

Und das „together“ im Sprichwort kann im KI-Kontext eine ganz eigene Bedeutung haben: Wer KI nicht als isoliertes Werkzeug begreift, sondern als Teammitglied, das in bestehende Arbeitsabläufe integriert wird, erschließt genau die Perspektive, die den Unterschied zwischen „faster“ und „further“ ausmacht.

Was das für die Unternehmensführung bedeutet

Wenn Sie diesen Artikel bis hierhin gelesen haben, erwarten Sie vermutlich keine Zehn-Punkte-Checkliste. Sonst müssten wir Sie leider enttäuschen.

Stattdessen bieten wir Ihnen drei Fragen an, die erste Impulse für die weitere Diskussion liefern können:

Wissen Sie, welches Problem Sie mit KI lösen wollen? Nicht im Allgemeinen, sondern spezifisch und konkret. Welcher Prozess, welche Entscheidung, welcher Engpass? Wenn die Antwort vage bleibt, ist das kein Datenproblem – es ist eine offene Imagination Gap.

Könnte ein Neueinsteiger auf der Grundlage der bestehenden Dokumentation den Prozess verstehen und umsetzen? Wenn die ehrliche Antwort „nein“ ist, fehlt nicht die Datenqualität – es fehlt die Prozessklarheit. Und ohne Prozessklarheit ist jede Datenbereinigung ein Schuss ins Leere.

Wer in Ihrem Unternehmen trägt das Wissen, das nirgends dokumentiert ist? Diese Frage hat eine Dringlichkeit, die über KI hinausgeht. Mit dem demografischen Wandel gehen in den kommenden Jahren genau diese Wissensträger in den Ruhestand. Wer bis dahin dieses Wissen nicht systematisch gesichert hat, verliert es – und damit auch die Grundlage für jede Form von KI-gestützter Prozessverbesserung.

Die Reihenfolge ist kein Zufall. Sie bildet den Einstieg in den Reifezyklus ab: Erst den Use Case verstehen, dann den Prozess klären, dann das Wissen sichern. Datenqualität kommt nicht vorher – sie entsteht dabei.

 

Quellen

[1] Gartner: „Lack of AI-Ready Data Puts AI Projects at Risk“ https://www.gartner.com/en/newsroom/press-releases/2025-02-26-lack-of-ai-ready-data-puts-ai-projects-at-risk 

[2] Gartner: „Why Half of GenAI Projects Fail“ https://www.gartner.com/en/articles/genai-project-failure 

[3] Precisely / Drexel University: „2026 State of Data Integrity and AI Readiness“ Pressemitteilung: https://www.precisely.com/press-release/fourth-annual-study-finds-ai-confidence-outpaces-readiness-as-data-integrity-gaps-persist/ Vollständiger Report (PDF): https://www.lebow.drexel.edu/sites/default/files/2026-01/lebow-precisely-state-data-integrity-ai-readiness-2026.pdf 

[4] BARC: “The Data, BI and Analytics Trend Monitor 2026” Zusammenfassung: https://www.strategy.com/software/blog/why-data-quality-is-key-to-ai-success-in-2026 

[5] Dataversity: „Trends in Data Management 2026“ https://www.dataversity.net/articles/data-management-trends/ 

[6] Initcon: White Paper “Why AI Projects Fail“ https://www.initcon.ch/wp-content/uploads/2025/06/Why-AI-Projects-Fail-V1.0.pdf 

[7] Section: AI Proficiency Report https://www.sectionai.com/ai/the-ai-proficiency-report 

[8] RAND Corporation: “The Root Causes of Failure for Artificial Intelligence Projects” https://www.rand.org/pubs/research_reports/RRA2680-1.html PDF direkt: https://www.rand.org/content/dam/rand/pubs/research_reports/RRA2600/RRA2680-1/RAND_RRA2680-1.pdf

[9] Mills & Spencer: “Efficient Inefficiency”  https://www.sciencedirect.com/science/article/pii/S0148296324006325 White Rose Repository: https://eprints.whiterose.ac.uk/220508/

Sie möchten KI in Ihrem Unternehmen einsetzen und haben Fragen zur KI-Implementierung?

Gerne analysieren wir mit Ihnen in einem ersten unverbindlichen Strategiegespräch, wie der Einsatz von KI in Ihrem Unternehmen aussehen könnte und was dabei zu beachten ist. 

Vereinbaren Sie hier Ihren kostenfreien Termin.

Leave a Reply

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert