Während meiner Zeit bei Ivanti habe ich aus erster Hand erlebt, wie KI in Unternehmen als Kraftmultiplikator wirkt. Strategisch eingesetzt beschleunigt KI Entscheidungen und operative Abläufe in großem Maßstab auf eine Weise, die Teams manuell schlicht nicht aufrechterhalten können. Ohne klare und durchsetzbare KI-Leitplanken setzt die Implementierung von KI Unternehmen jedoch ernsthaften neuen Risiken aus.

Ivanti State of Cybersecurity Report 2026 zeigt eine wachsende Diskrepanz, die ich in der gesamten Branche beobachte: Der Optimismus gegenüber KI nimmt zu, doch Governance und Vorbereitung halten nicht Schritt. Derzeit geben nur 50 % der Unternehmen an, formelle Leitplanken eingerichtet zu haben, um die Bereitstellung und den Betrieb von KI-Systemen und -Agenten zu steuern.

Während die Einführung schneller voranschreitet als die Governance, sehe ich, dass Unternehmen mit wachsenden internen Risiken konfrontiert sind – etwa der Nutzung von Schatten-KI, uneinheitlicher Datenqualität, verzerrten Ergebnissen und ungleichmäßiger Schulung der Mitarbeitenden.

Aus meiner Perspektive – an der Schnittstelle von Recht, Sicherheit und HR – kann ich sagen: KI-Governance ist keine abstrakte Compliance-Übung. Sie ist eine grundlegende Voraussetzung für Vertrauen, Verantwortlichkeit und Kontrolle.

KI im Unternehmen: ein riskanter Wilder Westen

Verantwortungsvolle KI in großem Maßstab erfordert bewusste Governance mit durchsetzbaren Leitplanken für alle Mitarbeitenden. Wird dies ignoriert, nimmt die Nutzung von Schatten-KI weiter zu. Unser Forschungsbericht Technology at Work 2025 ergab, dass 46 % der Büroangestellten KI nutzen, die nicht vom Arbeitgeber bereitgestellt wird. Noch besorgniserregender ist, dass fast ein Drittel der Mitarbeitenden (32 %) die Nutzung von KI-Tools am Arbeitsplatz vor dem Arbeitgeber geheim hält.

Zu viele Unternehmen setzen KI ohne übergreifende Governance ein – und die Folgen dieses Ansatzes sind real. Unternehmen können sensible Daten offenlegen. Sie können regulatorische Pflichten verletzen. Dies kann potenziell das Vertrauen des Marktes untergraben. Ein Team führt eine KI-Plattform ohne angemessene Leitplanken ein, und plötzlich entstehen verzerrte Ergebnisse oder eine verschlechterte Leistung. Ohne menschliche Aufsicht generieren KI-Systeme ungenaue Empfehlungen oder lösen unangemessene Aktionen aus. Das schafft ein gefährliches falsches Vertrauen in KI-gestützte Ergebnisse.

Was ist ein KI-Governance-Framework?

Ein KI-Governance-Framework ist der Bauplan dafür, wie wir KI-Systeme über ihren gesamten Lebenszyklus hinweg entwickeln, bereitstellen und überwachen. Sein Zweck besteht darin, die KI-Nutzung an Geschäftszielen, rechtlichen Verpflichtungen und der Risikotoleranz des Unternehmens auszurichten – mit von Anfang an integrierter Transparenz und Verantwortlichkeit.

Bei Ivanti klärt unser Framework:

  • Wer verantwortlich ist für KI-Entscheidungen und -Ergebnisse
  • Wie Risiken identifiziert, bewertet und gemindert werden
  • Welche Leitplanken vorhanden sein müssen, bevor KI-Systeme live gehen
  • Wie KI-Leistung, -Verhalten und -Auswirkungen im Zeitverlauf überwacht werden

In der Praxis ermöglicht Governance Skalierung. Klare Frameworks helfen uns, über fragmentierte Pilotprojekte hinauszugehen und KI unternehmensweit zu operationalisieren. Ohne sie gerät die Einführung ins Stocken.

Unsere Haltung ist einfach: Governance blockiert Innovation nicht. Sie macht Innovation nachhaltig.

3 Ebenen von KI-Leitplanken in einem KI-Governance-Framework

Als Teil des AI Governance Council von Ivanti habe ich gelernt, dass ein umfassendes Framework mehrere Ebenen von Leitplanken erfordert. Jede adressiert eine andere Risikokategorie. Zusammen bilden sie die Grundlage für eine sichere und zuverlässige KI-Nutzung.

Technische Leitplanken

Technische Leitplanken halten KI-Systeme innerhalb vordefinierter Sicherheits- und Betriebsparameter.

Daten-Leitplanken: Daten-Leitplanken schützen die Datenintegrität und stellen sicher, dass KI-Systeme mit vertrauenswürdigen Eingaben trainiert und betrieben werden. Diese Leitplanken liegen typischerweise in der Verantwortung von Daten- und Sicherheitsteams, die Standards für Datenbeschaffung, Validierung, Zugriffskontrollen und kontinuierliches Qualitätsmonitoring festlegen. Schlechte Datenqualität bleibt ein großes Hindernis für den effektiven KI-Einsatz, insbesondere im Sicherheitsbereich, wo unvollständige, verzerrte oder nicht validierte Daten Ergebnisse verfälschen und die Erkennungsgenauigkeit im Laufe der Zeit beeinträchtigen können.

Modell-Leitplanken: Modell-Leitplanken adressieren Robustheit, Erklärbarkeit und die Erkennung von Verzerrungen, um sicherzustellen, dass KI-Systeme sich im Laufe der Zeit wie beabsichtigt verhalten. Diese Leitplanken werden typischerweise von Sicherheits-, Data-Science- und Plattformteams entwickelt, die Testanforderungen für Drift, Bias und Leistungsabfall vor der Bereitstellung und danach kontinuierlich definieren – insbesondere wenn Modelle neu trainiert oder veränderten Betriebsdaten ausgesetzt werden.

Leitplanken für Anwendungen und Ausgaben: Leitplanken für Anwendungen und Ausgaben validieren KI-generierte Ausgaben, insbesondere in Szenarien zur Entscheidungsunterstützung oder automatisierten Reaktion. Diese Leitplanken werden typischerweise von Sicherheits- und Betriebsteams implementiert, die Freigabeschwellen, Eskalationswege und Human-in-the-Loop-Kontrollen definieren. Ohne sie können Systeme ungenaue Empfehlungen generieren oder unangemessene Aktionen ausführen und so falsches Vertrauen in Automatisierung verstärken.

Infrastruktur-Leitplanken: Infrastruktur-Leitplanken schützen die Systeme, die KI-Workloads hosten und unterstützen, und liegen typischerweise in der Verantwortung von IT- und Sicherheitsteams. Diese Teams setzen sichere Bereitstellungspraktiken, Zugriffskontrollen, Protokollierung und Auditierbarkeit in Cloud- und On-Premises-Umgebungen durch und stellen zugleich sicher, dass KI-Services in bestehendes Sicherheitsmonitoring und Incident-Response-Workflows integriert sind.

Ethische Leitplanken

Ethische Leitplanken richten das Verhalten von KI an organisatorischen Standards aus und definieren Verantwortlichkeiten, wenn KI Menschen, Kunden oder Geschäftsergebnisse beeinflusst.

Der AI Governance Council von Ivanti spielt hierbei eine zentrale Rolle. Wir navigieren durch die „Graubereiche“ autonomer Agenten. Wir bringen Verantwortliche aus Recht, Sicherheit, HR und Business zusammen, um akzeptable Nutzung, Eskalationswege und Verantwortlichkeiten zu definieren. Wann sollten Menschen eingreifen? Wie werden Entscheidungen auditiert? Wer trägt letztlich die Verantwortung für das Ergebnis, wenn etwas schiefgeht?

Wenn diese Governance fehlt, eskalieren die Folgen schnell.

Aktuelle Vorfälle zeigen, welche Kosten unklare ethische Leitplanken verursachen können. So stieß Grok, ein von xAI entwickelter KI-Chatbot, auf breite Kritik, nachdem er ohne Einwilligung unangemessene Bilder realer Personen generiert hatte. Das Versagen war nicht nur technischer Natur – es war Governance-bezogen, weil ethische Grenzen nicht ausreichend definiert waren.

Dasselbe Problem tritt innerhalb von Unternehmen auf. Wenn KI ein Benutzerkonto sperrt, Mitarbeitende markiert oder den Kundenzugriff einschränkt, müssen wir wissen, wer die Entscheidung verantwortet, wenn sie falsch ist. Ob KI in der Sicherheit, im HR-Bereich oder in kundennahen Systemen eingesetzt wird: Die ethischen Prinzipien bleiben gleich. Governance stellt sicher, dass Verantwortlichkeit definiert ist, bevor Automatisierung Schaden verursacht.

Regulatorische und rechtliche Leitplanken

Regulatorische und rechtliche Leitplanken stellen sicher, dass die KI-Nutzung sich an weiterentwickelnde globale Vorschriften, branchenspezifische Regeln und Datenschutzgesetze hält. Da sich diese Anforderungen schnell ändern, können Teams nicht in funktionalen Silos arbeiten.

Die Rechtsabteilung muss KI-Governance frühzeitig mitgestalten. Bei Ivanti arbeiten wir eng mit Security und IT zusammen, um Verpflichtungen zu interpretieren und in durchsetzbare Kontrollen zu übersetzen. Erfolg hängt davon ab, sich von Beginn an abzustimmen, damit Compliance-Anforderungen in KI-Design und -Bereitstellung eingebettet sind.

Aktuelle Vorfälle zeigen, warum regulatorische Leitplanken kein nachträglicher Gedanke sein dürfen. Europäische und britische Regulierungsbehörden bestätigten, dass Clearview AIs Gesichtserkennungsaktivitäten, die auf dem Scraping von Milliarden von Bildern basierten, Datenschutzgesetzen wie der DSGVO unterlagen, und ergriffen aufgrund von Verstößen Durchsetzungsmaßnahmen. Das verdeutlicht das rechtliche Risiko, dem Unternehmen ausgesetzt sind, wenn Governance nicht mit regulatorischen Erwartungen übereinstimmt.

Die Lehre ist klar. Rechts- und Produktentwicklungsteams müssen frühzeitig zusammenarbeiten, um regulatorische Verpflichtungen in KI-Design, -Bereitstellung und -Betrieb einzubetten. Governance stellt sicher, dass Compliance-Anforderungen standardmäßig durchgesetzt werden – und nicht erst rückwirkend, nachdem regulatorische Prüfungen begonnen haben.

KI-Governance vs. KI-Risikomanagement

Governance und Risikomanagement sind eng miteinander verbunden, aber nicht dasselbe. Meine Einschätzung: Governance legt Regeln und Verantwortlichkeitsstrukturen fest. Risikomanagement konzentriert sich darauf, spezifische KI-bezogene Bedrohungen über den gesamten Systemlebenszyklus hinweg zu identifizieren und zu mindern.

Zu den häufigen KI-Risiken gehören Datenabfluss, Bias, unzuverlässige Ausgaben, eine übermäßige Abhängigkeit von automatisierten Entscheidungen sowie Sicherheitslücken, die durch nicht verwaltete Tools oder Integrationen entstehen. Mit zunehmender Autonomie von KI-Systemen verstärken sich diese Risiken.

Die Integration von KI-Risikominderung in die Governance stellt sicher, dass Risiken nicht isoliert adressiert werden. Wir bewerten sie im Zusammenhang mit geschäftlichen Auswirkungen, operativer Resilienz und der organisatorischen Risikobereitschaft. So können wir Kontrollen dort priorisieren, wo sie am wichtigsten sind, und pauschale Einschränkungen vermeiden, die den Fortschritt verlangsamen, ohne Risiken zu verringern.

Herausforderungen bei der Skalierung von KI-Governance

Viele Unternehmen beginnen mit eng begrenzten KI-Pilotprojekten in einzelnen Teams. Die Skalierung auf eine unternehmensweite Einführung bringt neue Herausforderungen mit sich.

Silos sind der schnellste Weg, Governance zu untergraben. Security, IT, Recht und Business-Teams arbeiten häufig auf Basis widersprüchlicher Annahmen. Wir brauchen gemeinsame Verantwortung über Teams hinweg. Wie mein Kollege Sterling Parker erklärt, erfordert eine erfolgreiche Vision die Einbindung von Stakeholdern aus dem gesamten Unternehmen, um „KI-Wildwuchs“ zu verhindern.

Dieser Übergang erfordert ein menschenzentriertes Betriebsmodell. Unser Governance-Gremium definiert klar, wo KI bestehende Rollen verstärken kann, wo zusätzliche Schulungen erforderlich sind und wo menschliche Aufsicht unverzichtbar bleibt. Kontinuierliches Feedback von Mitarbeitenden hilft sicherzustellen, dass KI dort eingesetzt wird, wo sie Mehrwert liefert, ohne Lücken bei Verantwortlichkeit oder Vertrauen zu schaffen. Wir priorisieren Weiterbildung, um Angst durch aktive Nutzung zu ersetzen.

Unsere Cybersecurity-Forschung zeigt, dass reife Unternehmen diese Herausforderungen anders angehen. Unternehmen, die sich selbst als am weitesten fortgeschritten im Bereich Cybersecurity einstufen (Level 4), nutzen nahezu dreimal so häufig umfassende KI-Leitplanken wie Unternehmen mit einem mittleren Reifegrad der Cybersecurity (Level 2).

Sie investieren frühzeitig in Governance, richten die Führungsebene an gemeinsamen Frameworks aus und behandeln KI als strategische Fähigkeit statt als Sammlung von Tools. Diese Unternehmen sind deutlich eher in der Lage, KI unternehmensweit zu operationalisieren und dabei Vertrauen und Kontrolle zu bewahren.

So implementieren Sie verantwortungsvolle KI

Der Aufbau des Frameworks ist die Grundvoraussetzung. In der Umsetzung wird KI-Governance lebendig.

Beginnen Sie mit klaren Richtlinien für akzeptable Nutzung und Eskalation. Diese müssen praxistauglich und direkt mit Ihren bestehenden Risikostrukturen verknüpft sein.

Governance muss zugänglich sein. Verantwortungsvolle KI ist ein unternehmensweites Mandat, kein Spezialistensilo. Gezielte Schulungen stellen sicher, dass alle Nutzer ihre Rolle bei der Einhaltung dieser Leitplanken verstehen.

Setzen Sie bei der KI-Befähigung auf einen Governance-gestützten Ansatz. „Governance-gestützte Befähigung“ geht davon aus, dass KI bereits im gesamten Unternehmen genutzt wird, und definiert, wo und wie sie sicher eingesetzt werden kann. Dies erfordert kontinuierliches Monitoring und konsequente Durchsetzung, damit Systeme mit den Richtlinien im Einklang bleiben, während sich Nutzung und Risiken weiterentwickeln. Es handelt sich um eine fortlaufende Disziplin, nicht um ein einmaliges Projekt.

Die Zukunft verantwortungsvoller KI beginnt jetzt

KI verändert die Arbeitsweise von Unternehmen in einem Tempo, das nicht ignoriert werden kann. Die Frage ist nicht mehr, ob sie eingeführt werden soll, sondern wie sie sicher skaliert werden kann. Unternehmen mit starker Governance skalieren, ohne Vertrauen zu opfern. Wer zögert, vergrößert die Lücke zwischen Bedrohung und Vorbereitung.

Bei Ivanti setzen wir uns dafür ein, KI-Governance aufzubauen, die Innovation ermöglicht und zugleich schützt, worauf es am meisten ankommt – unsere Mitarbeitenden, unsere Kunden und unseren Betrieb. Diese Arbeit ist entscheidend, und jetzt ist der richtige Zeitpunkt zu handeln.

Wenn Sie mehr über die Lücke bei der KI-Bereitstellung erfahren möchten und darüber, wie führende Unternehmen sie schließen, lesen Sie den Ivanti State of Cybersecurity Report 2026.