Zusammenfassung
Perfekte Daten sind ein Mythos, und die Einführung von KI im Unternehmen sollte nicht darauf warten. Unternehmen benötigen eine bewusst entwickelte KI-Datenmanagementstrategie, die auf vorhandenen Daten aufbaut – nicht einen auf unbestimmte Zeit verschobenen Plan, der von bereinigten Daten abhängt, die nie vollständig verfügbar sein werden. Datensilos sind die größte Hürde für die KI-Performance im Unternehmen: 89 % der IT-Fachkräfte berichten, dass isolierte Daten den Betrieb negativ beeinflussen und KI-Systeme daran hindern, auf vertrauenswürdige, einheitliche Informationen zuzugreifen. Die Wahl des richtigen Ansatzes zur Datenaufbereitung für jeden Anwendungsfall ist entscheidend. Manuelle Bereinigung liefert Genauigkeit für strukturierte, hochpräzise Workflows, während generative KI besser für unstrukturierte Szenarien mit hohem Datenvolumen geeignet ist, in denen Geschwindigkeit wichtiger ist als perfekte Exaktheit. Die größte Lücke bei KI und Datenmanagement ist Prozessreife, nicht Technologie. Unternehmen, die jetzt in Datentransparenz, Governance-Frameworks, Cloud-Infrastruktur und Ausgabevalidierung investieren, werden den größten Nutzen aus KI ziehen, wenn autonome, agentenbasierte Systeme zum Standard werden.
Daten werden nie vollständig bereinigt sein. Es ist nur eine Frage des Ausmaßes.
Das wurde mir am ersten Tag meines Masterstudiums in Data Science bewusst, als uns ein Professor warnte, dass wir rund 80 % unserer Zeit mit Vorverarbeitung und Bereinigung verbringen würden – nicht mit dem Aufbau von Modellen.
Jahre später habe ich als Principal Product Manager für KI, ML und Analytics bei Ivanti festgestellt, dass sich dieser Hinweis in der Praxis bemerkenswert gut bestätigt.
Während mein Team und ich daran arbeiten, KI aus dem Labor in den Produktivbetrieb für IT- und Sicherheitsteams zu bringen, ist KI-Datenmanagement wichtiger denn je. Der Ivanti Technology at Work Report 2025 ergab, dass 42 % der Büroangestellten generative KI-Tools bei der Arbeit nutzen – ein Anstieg um 16 Prozentpunkte innerhalb eines Jahres. Unter IT-Fachkräften lag die Akzeptanz bei 74 %.
Das Interesse ist vorhanden. Die Zurückhaltung aber auch. Viele IT-Führungskräfte wissen, dass ihre Daten nicht bereinigt sind, ihre Systeme fragmentiert sind und ihre Governance noch nicht Schritt gehalten hat. Die gute Nachricht: Sie brauchen keine perfekten Daten, um KI einzuführen.
Sie brauchen eine klare Datenmanagementstrategie für KI, die auf dem aufbaut, was Sie bereits haben.
Warum IT-Daten nie perfekt sind
In der Unternehmens-IT sind Probleme mit der Datenqualität keine Ausnahme. Sie sind die Ausgangsrealität von KI und Datenmanagement. Tickets werden uneinheitlich kategorisiert. Asset-Inventare sind unvollständig. Kritische Informationen liegen systemübergreifend in Silos. Und unstrukturierter Text in Support-Tickets und Umfrageantworten lässt sich nicht sauber kategorisieren.
Ivantis Forschung zeigt, wie tiefgreifend dieses Problem ist. Unser Autonomous Endpoint Management Advantage Report 2026 ergab, dass 89 % der IT-Fachkräfte angeben, dass Datensilos den Betrieb negativ beeinflussen; 39 % sagen, dass Silos zu einer ineffizienten Ressourcennutzung führen.
Unser Tech at Work Report zeichnet ein ähnliches Bild:
- 38 % der IT-Fachkräfte nennen technologische Komplexität als wesentliches Hindernis für einen effektiven Betrieb – ein Anstieg um vier Punkte gegenüber dem Vorjahr.
- Fast die Hälfte (46 %) sagt, dass neue Softwarebereitstellungen das Ticketvolumen tatsächlich erhöhen, statt für mehr Klarheit zu sorgen.
Hinzu kommt, dass 48 % der Unternehmen weiterhin End-of-Life-Software einsetzen. Damit wird deutlich: Diese Datenumgebung ist gewissermaßen von Natur aus unübersichtlich.
Wie mir David Pickering, Product Marketing Director bei Ivanti, sagte: Wenn Daten systemübergreifend unterschiedlich formatiert, uneinheitlich eingegeben, nach Abteilungen isoliert und durch jahrelange Übernahmen geprägt sind, geraten agentenbasierte KI-Workflows, die sich über diese Systeme erstrecken, schnell in Schwierigkeiten. Sie können einer KI nicht sagen, welchen Daten sie vertrauen soll, wenn Sie es selbst nicht wissen. Und ohne diese Grundlage werden selbst gut konzipierte Automatisierungen an den Nahtstellen auseinanderfallen.
Anders gesagt: „Garbage in, garbage out“ gilt weiterhin. Aber makellose Daten sind in absehbarer Zeit nicht zu erwarten. Jeder ernsthafte Ansatz für Stammdatenmanagement und Machine Learning muss die Unordnung berücksichtigen, statt darauf zu warten, dass sie sich von selbst auflöst.
Der Entscheidungsrahmen – die richtige Datenmanagementstrategie wählen
Für Datenmanagement für KI in der IT gibt es zwei zentrale Wege. Beide sind valide, beide bringen Kompromisse mit sich, und viele Unternehmen werden je nach Anwendungsfall beide nutzen.
Weg 1: Manuelle/programmgesteuerte Bereinigung
Als mein Team die Ticketklassifizierung für Ivantis ITSM-System einführte, trainierten wir ein Modell zur Kategorisierung von Serviceanfragen. Dafür waren bereinigte, gut gekennzeichnete Trainingsdaten erforderlich. Deshalb integrierten wir einen Schritt in den Workflow, der Administratoren die Möglichkeit gab, Daten zu prüfen und zu bereinigen, bevor sie in das Modell einflossen. Diese menschliche Prüfung führte zu einer messbaren Verbesserung der Genauigkeit.
Dieser Weg eignet sich am besten, wenn Sie ein individuelles Modell trainieren oder feinabstimmen, Daten in eine Wissensdatenbank aufnehmen oder mit strukturierten Datensätzen arbeiten, für die Qualitätsstandards definiert werden können. Der Kompromiss liegt in Zeit und Ressourcen. Das Ergebnis sind hohe Genauigkeit und vollständige Kontrolle.
Am besten funktioniert dies außerdem, wenn eine grundlegende Datenhygiene bereits vorhanden ist. Viele Unternehmen sind noch nicht so weit: Nur 35 % erfassen das Gerätealter oder den Standort, und nur 37 % erfassen den Patch-Status.
Weg 2: Verarbeitung durch generative KI
Manchmal ist eine manuelle Bereinigung nicht praktikabel. Das habe ich bei der Arbeit an Ivantis Umfrageanalysen gelernt. Umfrageantworten gehören zu den unübersichtlichsten Daten, mit denen IT-Teams zu tun haben: Freitext, uneinheitliche Formatierung, stark variierende Detailtiefe. Eine manuelle Bereinigung in diesem Umfang ist nicht realistisch.
Stattdessen nutzten wir Large Language Models, um Themen, Muster und Stimmungen in unvollständigen und unstrukturierten Eingaben zu erkennen. Wir konnten ganze Umfragen zusammenfassen, Zufriedenheitstreiber kennzeichnen und schnell verwertbare Erkenntnisse sichtbar machen.
Dieser Weg ist ideal für große Mengen unstrukturierter Daten, für Situationen, in denen eine manuelle Bereinigung schlicht nicht möglich ist, oder für jedes Szenario, in dem die Kosten der Bereinigung den Wert des Ergebnisses übersteigen. Er erfordert jedoch Zugang zu leistungsfähigen Large Language Models und eine Validierung, dass der Anwendungsfall geeignet ist.
Die Wahl zwischen den beiden Strategien
Die Entscheidung hängt vom Datenvolumen und der Datenvielfalt, von Zeitvorgaben, Genauigkeitsanforderungen und davon ab, wie viel Kontrolle Sie darüber benötigen, wohin Ihre Daten gelangen und wie sie verarbeitet werden.
Feinabstimmung eines Modells, bei dem Präzision entscheidend ist? Investieren Sie in Bereinigung. Arbeiten mit großen Mengen unstrukturierter Eingaben, bei denen Geschwindigkeit zählt? Setzen Sie auf generative KI. Ziel ist eine bewusste Entscheidung – nicht Untätigkeit, nur weil die Daten nicht perfekt sind.
Aufbau einer KI-bereiten Infrastruktur für das Datenmanagement
Cloud-Services sind hier unverzichtbar, und das sage ich nicht leichtfertig. Als mein Team einen Digital Experience Score entwickelte, um die digitale Mitarbeitererfahrung zu messen, zu quantifizieren und zu verbessern, war die Cloud der entscheidende Wegbereiter. Sie diente als unser Integrations-Hub und brachte Service-Tickets, Gerätetelemetrie, Anwendungsleistung und Sicherheitssignale zusammen.
Dieses Maß an Multi-Source-Integration ist ohne Cloud-Infrastruktur in großem Umfang nicht realisierbar. Die Cloud ermöglichte uns außerdem, ein hybrides KI-Modell auszuführen, das sowohl Text als auch numerische Telemetrie gleichzeitig verarbeitet. Tausende Geräte und Benutzer auf diesem Komplexitätsniveau zu unterstützen, ist On-Premises nicht praktikabel.
Über reine Rechenleistung hinaus bedeutet KI-bereite Infrastruktur, Stammdatenmanagement für Machine Learning anzugehen. Unternehmen benötigen eine zentrale, systemübergreifende Quelle der Wahrheit. Datenformate müssen standardisiert werden, insbesondere wenn Wachstum durch Übernahmen Legacy-Plattformen mit unterschiedlichen Konventionen einführt.
Data Governance macht die Lage zusätzlich komplexer. Vorschriften wie DSGVO und CCPA stellen strenge Anforderungen daran, wie personenbezogene Daten verarbeitet werden und wohin sie übertragen werden dürfen. Für globale Unternehmen bedeutet das, dass KI-Pipelines regionale Unterschiede in der Zuständigkeit berücksichtigen müssen – insbesondere bei der Bewertung, ob externe KI-Services genutzt oder die Verarbeitung intern gehalten werden soll.
Unsere Autonomous-Endpoint-Management-Forschung ergab, dass nur 32 % der IT-Fachkräfte ein Unified-Endpoint-Management-System nutzen. Ohne konsolidierte Transparenz können KI und Automatisierung ihr Potenzial nicht ausschöpfen. Effektives KI-Datenmanagement beginnt mit Transparenz: Sie können nicht automatisieren, was Sie nicht sehen können.
Best Practices für IT-Teams bei der Implementierung von KI
Beim Datenmanagement für KI ist die Einführung von Tools, ohne die unterstützenden Prozesse zu entwickeln, einer der häufigsten Fehler, die ich sehe.
Knowledge-Management-Praktiken etablieren
Ivantis ITSM-Plattform nutzt KI zur Erstellung von Wissensartikeln aus früheren Tickets und Incident-Lösungen. Der Produktivitätsgewinn ist real. Doch er macht Managementdisziplin nicht überflüssig.
Artikel erfordern weiterhin Prüf- und Freigabezyklen, Versionskontrolle und klare Verantwortlichkeiten.
Obwohl 86 % der IT-Fachkräfte zustimmen, dass KI für einen effizienten Betrieb wichtig ist, nutzt weniger als die Hälfte sie für besonders wertvolle Szenarien wie Predictive Maintenance oder automatisierte Incident Response. Die Lücke bei KI und Datenmanagement liegt nicht in der Technologie. Sie liegt in der Prozessreife.
Validierung und Governance
Validierung ist auf der Ausgabeseite ebenso wichtig wie Datenqualität auf der Eingabeseite. KI-generierte Ergebnisse müssen überprüft werden, insbesondere wenn Unternehmen sich in Richtung agentenbasierter KI bewegen, bei der autonome Systeme in Echtzeit auf Basis von Entscheidungen handeln. Die Frage ist nicht nur, ob die zurückkommenden Daten richtig aussehen. Entscheidend ist, ob das System die richtigen Maßnahmen ergreift.
Auch die Messung der KI-Performance ist wichtig: wie häufig sie genutzt wird, wie genau sie ist und wo sie scheitert. Ivantis State of Cybersecurity Report 2026 ergab, dass 92 % der Sicherheitsexperten sagen, Automatisierung reduziere die mittlere Reaktionszeit effektiv. Diese Wirksamkeit hängt jedoch von kontinuierlicher Überwachung und Feinabstimmung ab.
KI als Katalysator für bessere Datenpraktiken nutzen
KI nutzt gute Datenpraktiken nicht nur – sie treibt sie voran. Indem KI die Hürden für Inhaltserstellung und Analyse senkt, verschafft sie Teams die Freiheit, die Governance-Frameworks aufzubauen, die sie bisher aufgeschoben haben. Wenn das Erstellen eines Wissensartikels Minuten statt Stunden dauert, kann das Team diese Zeit in Freigabe-Workflows und Qualitätssicherung investieren.
Das ist besonders wertvoll, wenn Junior-Techniker in Echtzeit KI-Unterstützung erhalten und dadurch auf höherem Niveau beitragen können, während erfahrene Mitarbeitende sich auf die Strategie konzentrieren.
Unser Autonomous Endpoint Management Advantage Report ergab, dass 62 % der IT-Fachkräfte sich von den täglichen Abläufen überfordert fühlen und jede vierte Person angibt, dass ein Kollege oder eine Kollegin aufgrund von Burnout gekündigt hat. KI, die menschliche Expertise ergänzt, hilft Teams, zu skalieren, ohne diesen Preis zu zahlen.
Der Weg ist nicht immer klar – die Strategie kann es sein
Perfekte Daten sind ein Mythos. Das sollte Sie nicht aufhalten.
Manuelle Bereinigung für strukturierte, hochpräzise Anwendungsfälle. Generative KI für unstrukturierte Szenarien mit hohem Datenvolumen. Beides erfordert gezielte Investitionen in Cloud-Infrastruktur, Governance und Prozessentwicklung.
Da sich KI-Modelle kontinuierlich weiterentwickeln und nicht nur statistische Mustererkennung, sondern auch explizite Regeln und strukturiertes Schlussfolgern einbeziehen, wird die Hürde für KI-bereites Datenmanagement weiter sinken. Die Unternehmen, die jetzt handeln – mit klarem Blick auf die Unvollkommenheiten ihrer Daten und ausgestattet mit einer Strategie, diese zu bewältigen –, werden den größten Nutzen erzielen.
FAQs
Wie wirken sich Datensilos auf agentenbasierte KI-Workflows aus?
Wenn Daten systemübergreifend unterschiedlich formatiert, uneinheitlich eingegeben oder nach Abteilungen isoliert werden, geraten agentenbasierte KI-Workflows, die diese Systeme überspannen, schnell in Schwierigkeiten. Teams können KI nicht darauf trainieren, welchen Daten sie vertrauen soll, wenn sie diesen selbst nicht vertrauen können.
Was sind die beiden wichtigsten Datenmanagementstrategien für KI in der IT?
Für KI-Datenmanagement in der IT gibt es zwei zentrale Wege. Der erste Weg ist die manuelle/programmgesteuerte Bereinigung. Dieser Weg eignet sich am besten, wenn Sie ein individuelles Modell trainieren oder feinabstimmen, Daten in eine Wissensdatenbank aufnehmen oder mit strukturierten Datensätzen arbeiten, für die Qualitätsstandards definiert werden können. Der zweite Weg ist die Verarbeitung durch generative KI – der Einsatz von Large Language Models, um Themen, Muster und Stimmungen in unvollständigen und unstrukturierten Eingaben zu erkennen. Dieser Ansatz eignet sich am besten für große, unstrukturierte Datensätze, bei denen KI wesentlich schneller und skalierbarer arbeiten kann als rein manuelle Ansätze.
Was sind die Best Practices für KI-Datenmanagement?
Die Best Practices für KI-Datenmanagement beginnen mit Transparenz: Verschaffen Sie sich vor dem Aufbau einen klaren Überblick über Ihre Daten und richten Sie Ihre Strategie an dem aus, was Sie bereits haben, statt auf perfekte Daten zu warten. Standardisieren Sie Formate systemübergreifend, um eine zentrale Quelle der Wahrheit zu schaffen, und wählen Sie die richtige Bereinigungsmethode: manuell für Präzision, generative KI für Volumen. Validieren Sie KI-generierte Ausgaben ebenso sorgfältig wie Eingaben, überwachen Sie Nutzung, Genauigkeit und Fehlerpunkte kontinuierlich und investieren Sie in Cloud-Infrastruktur, Compliance und Prozesse als unverzichtbare Grundlagen.