<?xml version="1.0" encoding="utf-8"?><rss xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title>Ivanti Blog: Beiträge von </title><description /><language>de</language><atom:link rel="self" href="https://www.ivanti.com/de/blog/authors/daniel-spicer/rss" /><link>https://www.ivanti.com/de/blog/authors/daniel-spicer</link><item><guid isPermaLink="false">2b81a09a-1cd3-4fa1-a38b-f2014188fe81</guid><link>https://www.ivanti.com/de/blog/shadow-ai</link><atom:author><atom:name>Daniel Spicer</atom:name><atom:uri>https://www.ivanti.com/de/blog/authors/daniel-spicer</atom:uri></atom:author><category>Sicherheit</category><title>Verändert Shadow AI unbemerkt die Sicherheitslage Ihres Arbeitsplatzes?</title><description>&lt;p&gt;KI-Tools haben am Arbeitsplatz einen rasanten Aufstieg erlebt. Was einst hochspezialisierten Tech-Rollen vorbehalten war, ist heute alltäglich: Der &lt;a href="https://www.ivanti.com/de/resources/research-reports/tech-at-work"&gt;Technology at Work Report 2025&lt;/a&gt; von Ivanti ergab, dass 42 % der Büroangestellten angeben, bei der Arbeit Tools für generative KI wie ChatGPT zu nutzen – 16 Prozentpunkte mehr als im Vorjahr.&lt;/p&gt;

&lt;p&gt;Der Haken: Diese Produktivitätsgewinne entstehen im Verborgenen. Von den Befragten, die angaben, Tools für generative KI zu nutzen, sagen 46 %, dass einige (oder alle) der von ihnen verwendeten Tools &lt;em&gt;nicht&lt;/em&gt; vom Arbeitgeber bereitgestellt werden. Und jeder dritte Mitarbeitende hält KI-Produktivitätstools vor seinem Arbeitgeber geheim.&lt;/p&gt;

&lt;div class="flourish-embed flourish-chart" data-src="visualisation/22346584"&gt;&lt;/div&gt;

&lt;p&gt;&lt;/p&gt;

&lt;p&gt;Tools für generative KI können die Produktivität deutlich steigern. Gleichzeitig stellen sie ein Risiko für die Datensicherheit dar – insbesondere, wenn sie ohne Aufsicht des Arbeitgebers eingesetzt werden.&lt;/p&gt;

&lt;h2&gt;Was ist Shadow AI?&lt;/h2&gt;

&lt;p&gt;Die nicht autorisierte Nutzung von KI ist im Grunde eine weitere Form von Shadow IT (d. h. die Nutzung von Technologie ohne Freigabe durch die IT).&lt;/p&gt;

&lt;p&gt;Die Risiken, die Shadow AI mit sich bringt, ähneln anderen Shadow-IT-Risiken, haben jedoch eine zusätzliche Dimension: die enorme Menge an proprietären Daten, die generative KI benötigt, um effektiv zu sein. Kostenlose Tools für generative KI (und auch einige kostenpflichtige Tools) können Unternehmensdaten oder Suchanfragen von Mitarbeitenden zum Trainieren ihrer Modelle verwenden. Dadurch steigt das Risiko von Datenlecks und Compliance-Verstößen.&lt;/p&gt;

&lt;p&gt;Die jüngste Enthüllung, dass geteilte ChatGPT-Konversationen &lt;a href="https://arstechnica.com/tech-policy/2025/08/chatgpt-users-shocked-to-learn-their-chats-were-in-google-search-results/" rel="noopener" target="_blank"&gt;von Suchmaschinen gecrawlt werden konnten&lt;/a&gt; (auch wenn OpenAI schnell gegengesteuert hat), sollte ein Weckruf sein: Ohne geeignete Kontrollen können Dritte Ihre Daten auf eine Weise nutzen, der Sie nicht zustimmen. Einige kostenlose Tools, darunter ChatGPT, lassen sich so konfigurieren, dass sie Sicherheitsrichtlinien erfüllen. Das ist jedoch schlicht nicht möglich, wenn Mitarbeitende sie verdeckt nutzen.&lt;/p&gt;

&lt;p&gt;Kostenlose Tools wie ChatGPT sind nicht das einzige Shadow-AI-Risiko. Eine unerwartete Quelle ist tatsächlich bereits vorhandene Software. Angesichts des Tempos, mit dem KI-Funktionen ergänzt werden, können Tools, die zuvor möglicherweise von der IT freigegeben waren, nun neue Risiken bergen. Wenn Informationssicherheitsteams diese neuen Funktionen nicht kennen und bewerten, umgehen sie effektiv Prozesse für das Risikomanagement von Drittanbietern.&lt;/p&gt;

&lt;h2&gt;Warum ein risikoorientierter Ansatz für KI entscheidend ist&lt;/h2&gt;

&lt;p&gt;Ob bei generativer KI oder anderen Tools: Shadow IT entsteht, wenn es keinen klar definierten und praktikablen Weg gibt, Tools zu testen oder Arbeit zu erledigen. Da KI nicht verschwinden wird, müssen Unternehmen die Einführung proaktiv angehen. Denn Tools zu verbieten bedeutet nicht, dass Mitarbeitende nicht dennoch versuchen werden, sie zu nutzen, um ihre Produktivität zu steigern und sich die Arbeit zu erleichtern.&lt;/p&gt;

&lt;p&gt;Ich verbringe den Großteil meiner Zeit damit, Risiken zu bewerten – einschließlich der Risiken, die KI-Tools mit sich bringen. Häufig müssen wir Risiken im Zusammenhang mit einer Chance zur Verbesserung des Unternehmens bewerten – in diesem Fall Produktivitätsgewinne der Mitarbeitenden und Folgewirkungen (wie Mitarbeiterzufriedenheit oder mehr Zeit für strategischere Projekte).&lt;/p&gt;

&lt;p&gt;Kurz gesagt müssen wir fragen: Gibt es eine Möglichkeit, die Tools einzuführen, die Mitarbeitende anfragen, und ihre Vorteile zu nutzen, während das Risiko auf einem akzeptablen Niveau bleibt?&lt;/p&gt;

&lt;p&gt;Hier kommt ein &lt;a href="https://www.ivanti.com/de/resources/research-reports/proactive-security"&gt;risikoorientierter Ansatz&lt;/a&gt; ins Spiel. Ein risikoorientierter Ansatz für die KI-Einführung konzentriert sich auf die Daten, die in die KI eingespeist werden müssen, und darauf, wie der Drittanbieter mit diesen Daten umgeht. Dieser Ansatz ähnelt dem Risikomanagement für Anbieter: Unternehmen können etablierte Praktiken und Prozesse nutzen, diese jedoch auf KI-spezifische Fragestellungen anpassen.&lt;/p&gt;

&lt;p&gt;&lt;img alt="Horizontal color gradient arrow illustrates a spectrum from &amp;quot;Reactive response&amp;quot; to &amp;quot;Proactive response.&amp;quot; On the left, &amp;quot;Reflexive bans of AI tools&amp;quot; result in &amp;quot;Circumvention&amp;quot; and &amp;quot;Unknown risk.&amp;quot; On the right, &amp;quot;Risk-first approach&amp;quot; results in &amp;quot;Employee engagement,&amp;quot; &amp;quot;Safe, sanctioned adoption,&amp;quot; and &amp;quot;Known, managed risk.&amp;quot;" src="https://static.ivanti.com/sites/marketing/media/images/blog/2025/12/183216-shadow_ai_and_the_risk_first_approach_b.jpg"&gt;&lt;/p&gt;

&lt;p&gt;Wichtige Fragen sind unter anderem:&lt;/p&gt;

&lt;ol&gt;
	&lt;li&gt;Werden unsere Daten zum Trainieren des KI-Modells verwendet?&lt;/li&gt;
	&lt;li&gt;Wie lange werden unsere Daten aufbewahrt?&lt;/li&gt;
	&lt;li&gt;Welche Schutzmaßnahmen gibt es, um das Risiko einer Offenlegung unserer Daten zu verringern?&lt;/li&gt;
	&lt;li&gt;Wer besitzt die Rechte an geistigem Eigentum, das mithilfe der KI generiert wird?&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Die Minimierung von KI-Wildwuchs ist ein zentraler Bestandteil dieser Arbeit. Je mehr Anbieter spezialisierte KI-Tools einführen – und je mehr Anbieter Sie einbinden und deren KI-Tools Zugriff auf Ihre Daten gewähren –, desto stärker steigt Ihr Risiko. Das gilt auch für bestehende Tools, die plötzlich KI ohne Kosten- oder Vertragsänderungen einführen. Dadurch wird es schwierig, ein genaues Inventar der KI-Tools zu führen.&lt;/p&gt;

&lt;h2&gt;Einführung eines KI-Governance-Frameworks bei Ivanti&lt;/h2&gt;

&lt;p&gt;Bei Ivanti bekämpfen wir Shadow AI mit einem risikoorientierten Ansatz, der mit &lt;a href="https://www.ivanti.com/de/resources/research-reports/dex-security"&gt;Mitarbeiterengagement&lt;/a&gt; beginnt und endet.&lt;/p&gt;

&lt;p&gt;&lt;img alt="Four connected colored boxes form a process flowchart: &amp;quot;Employee engagement&amp;quot; leads to &amp;quot;Pathways to request AI tool approval,&amp;quot; then &amp;quot;Risk assessment,&amp;quot; and finally &amp;quot;Adoption and periodic review,&amp;quot; with an arrow looping back from the last step to the first." src="https://static.ivanti.com/sites/marketing/media/images/blog/2025/12/183216-shadow_ai_and_the_risk_first_approach_c.jpg"&gt;&lt;/p&gt;

&lt;h3&gt;KI-Nutzung aus dem Verborgenen holen&lt;/h3&gt;

&lt;p&gt;Auch wenn wir Shadow AI niemals fördern würden, verfügen Mitarbeitende, die sie nutzen, über wertvolles Wissen darüber, wie sich KI in Workflows integrieren lässt. Statt also jede KI-Nutzung zu verbieten, müssen wir sicherstellen, dass Mitarbeitende einen klaren Weg haben, KI-Tools für die Arbeit anzufragen, und dass es regelmäßig Gelegenheiten für einen offenen Dialog gibt.&lt;/p&gt;

&lt;p&gt;Ein offener Dialog sorgt dafür, dass Mitarbeitende sich wohl dabei fühlen, darüber zu sprechen, welche Tools ihnen zum Erfolg verhelfen. Letztlich bedeutet das, dass sie diese Tools (oder gleichwertige Tools) sicher nutzen. So erhalten Mitarbeitende die Möglichkeit, aktiv an der Entwicklung angemessener Governance mitzuwirken – statt zu versuchen, Einschränkungen zu umgehen.&lt;/p&gt;

&lt;h3&gt;Ein maßvoller Ansatz für KI-Implementierung und -Einführung&amp;nbsp;&lt;/h3&gt;

&lt;p&gt;Sobald ein Tool genehmigt ist, ist es wichtig, eine ordnungsgemäße Implementierung sicherzustellen und zu verstehen, auf welche Daten Sie ihm Zugriff gewährt haben. Das ist besonders wichtig, wenn man die Risiken für Data Governance und Sicherheit betrachtet, die Tools für generative KI für Unternehmen mit sich bringen. Wenn wir KI durch die Perspektive der Data Governance betrachten, kann dies dazu beitragen, viele Aspekte des KI-Risikos zu adressieren.&lt;/p&gt;

&lt;p&gt;Bei Ivanti verfolgen wir einen maßvollen Ansatz: Wir stellen ein Team bereit, das kontrollierte Tests von Tools für generative KI gemeinsam mit anderen Teams durchführt. Anschließend richten wir Feedbackschleifen ein, und die Einführung erfolgt schrittweise, um Störungen zu vermeiden.&lt;/p&gt;

&lt;h3&gt;Aufbau einer Feedbackschleife für KI-Tools&lt;/h3&gt;

&lt;p&gt;Wir müssen uns konsequent fragen:&lt;/p&gt;

&lt;ul&gt;
	&lt;li&gt;Wie nutzen die Mitarbeitenden von Ivanti KI?&lt;/li&gt;
	&lt;li&gt;Gefällt sie ihnen?&lt;/li&gt;
	&lt;li&gt;Welches Feedback haben sie?&lt;/li&gt;
	&lt;li&gt;Wie können wir das Tool verbessern?&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Dieser kontinuierliche Austausch stellt sicher, dass wir KI verantwortungsvoll nutzen und gleichzeitig die Produktivitätsanforderungen der Mitarbeitenden erfüllen.&lt;/p&gt;

&lt;p&gt;Es geht nicht darum, einfach auf den KI-Zug aufzuspringen. Es geht darum zu wissen, ob es sich lohnt – für das Unternehmen und für die Menschen, die KI nutzen. Shadow AI steigert die Produktivität einer einzelnen Person. Wenn man diese Produktivität jedoch ausweitet, entsteht eine spürbare Verbesserung für das gesamte Unternehmen.&lt;/p&gt;

&lt;h2&gt;Shadow AI proaktiv bekämpfen&lt;/h2&gt;

&lt;p&gt;Der rote Faden ist hier: Auch wenn KI – und insbesondere Shadow AI – neue und besorgniserregende Risiken mit sich bringt, wird sie bleiben. Mitarbeitende, die KI im Verborgenen nutzen, handeln nicht in böser Absicht; vielmehr versuchen sie, dem Unternehmen zu nützen, auch wenn sie dabei den falschen Weg wählen.&amp;nbsp;&lt;/p&gt;

&lt;p&gt;Ein proaktiver, &lt;a href="https://www.ivanti.com/de/blog/ai-cybersecurity-best-practices-meeting-a-double-edged-challenge"&gt;risikoorientierter Ansatz für die KI-Einführung&lt;/a&gt; erkennt diese Realität an. Statt mit reaktiven Verboten zu arbeiten, die Umgehungen nur fördern, müssen wir Mitarbeitende einbeziehen, um zu verstehen, welche Probleme sie mit KI lösen möchten. So können wir ihnen sichere Optionen bereitstellen, die unsere Anforderungen an Sicherheit und Datenschutz erfüllen.&amp;nbsp;&lt;/p&gt;
</description><pubDate>Mon, 15 Dec 2025 14:00:01 Z</pubDate></item></channel></rss>