<?xml version="1.0" encoding="utf-8"?><rss xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title>Ivanti Blog: Publié par </title><description /><language>fr</language><atom:link rel="self" href="https://www.ivanti.com/fr/blog/authors/daniel-spicer/rss" /><link>https://www.ivanti.com/fr/blog/authors/daniel-spicer</link><item><guid isPermaLink="false">4ae60775-69c6-46d2-9c82-174f43f0c243</guid><link>https://www.ivanti.com/fr/blog/shadow-ai</link><atom:author><atom:name>Daniel Spicer</atom:name><atom:uri>https://www.ivanti.com/fr/blog/authors/daniel-spicer</atom:uri></atom:author><category>Sécurité</category><title>L’IA fantôme transforme-t-elle discrètement la posture de sécurité de votre environnement de travail ?</title><description>&lt;p&gt;Les outils d’IA ont connu une progression fulgurante sur le lieu de travail. Ce qui relevait autrefois de fonctions technologiques très spécialisées est désormais courant : le &lt;a href="https://www.ivanti.com/fr/resources/research-reports/tech-at-work"&gt;rapport Technology at Work 2025&lt;/a&gt; d’Ivanti a révélé que 42 % des employés de bureau déclarent utiliser des outils d’IA générative, comme ChatGPT, au travail, soit 16 points de plus que l’année précédente.&lt;/p&gt;

&lt;p&gt;Le revers de la médaille ? Ces gains de productivité se font en dehors des circuits officiels. Parmi les personnes ayant déclaré utiliser des outils d’IA générative, 46 % indiquent qu’une partie, voire la totalité, des outils qu’elles utilisent ne sont &lt;em&gt;pas&lt;/em&gt; fournis par leur employeur. Et un salarié sur trois garde secrets vis-à-vis de son employeur les outils de productivité reposant sur l’IA qu’il utilise.&lt;/p&gt;

&lt;div class="flourish-embed flourish-chart" data-src="visualisation/22346584"&gt;&lt;/div&gt;

&lt;p&gt;Les outils d’IA générative peuvent démultiplier la productivité. Mais ils représentent aussi un risque pour la sécurité des données, en particulier lorsqu’ils sont utilisés sans supervision de l’employeur.&lt;/p&gt;

&lt;h2&gt;Qu’est-ce que l’IA fantôme ?&lt;/h2&gt;

&lt;p&gt;L’utilisation non autorisée de l’IA n’est qu’une autre forme de shadow IT, c’est-à-dire l’utilisation de technologies sans l’approbation de l’IT.&lt;/p&gt;

&lt;p&gt;Les risques introduits par l’IA fantôme sont similaires à ceux du shadow IT, avec toutefois une préoccupation supplémentaire : le volume considérable de données propriétaires dont l’IA générative a besoin pour être efficace. Les outils d’IA générative gratuits, ainsi que certains outils payants, peuvent utiliser les données d’une organisation ou les recherches de ses employés pour entraîner leur modèle, ce qui accroît le risque de fuite de données et de non-conformité.&lt;/p&gt;

&lt;p&gt;La révélation récente selon laquelle les conversations ChatGPT partagées étaient &lt;a href="https://arstechnica.com/tech-policy/2025/08/chatgpt-users-shocked-to-learn-their-chats-were-in-google-search-results/" rel="noopener" target="_blank"&gt;explorables par les moteurs de recherche&lt;/a&gt; (même si OpenAI a rapidement fait marche arrière) devrait servir de signal d’alarme : sans contrôles appropriés, des tiers peuvent utiliser vos données d’une manière que vous n’approuvez pas. Certains outils gratuits, dont ChatGPT, peuvent être configurés pour respecter les politiques de sécurité, mais cela devient tout simplement impossible lorsque les employés les utilisent de façon dissimulée.&lt;/p&gt;

&lt;p&gt;Les outils gratuits comme ChatGPT ne sont pas le seul risque d’IA fantôme. Une source inattendue se trouve en réalité dans les logiciels existants. Avec la course à l’ajout de fonctionnalités d’IA, des outils qui avaient peut-être été approuvés par l’IT auparavant peuvent désormais présenter de nouveaux risques. Et si les équipes de sécurité de l’information n’identifient pas et n’évaluent pas ces nouvelles fonctionnalités, celles-ci contournent de fait les processus de gestion des risques tiers.&lt;/p&gt;

&lt;h2&gt;Pourquoi une approche de l’IA axée en priorité sur les risques est essentielle&lt;/h2&gt;

&lt;p&gt;Qu’il s’agisse d’IA générative ou d’autres outils, le shadow IT résulte de l’absence d’un moyen défini et raisonnable de tester des outils ou de mener le travail à bien. Étant donné que l’IA n’est pas près de disparaître, les entreprises doivent aborder son adoption de manière proactive, car interdire les outils ne signifie pas que les employés ne tenteront pas de les utiliser pour gagner en productivité et faciliter leur travail.&lt;/p&gt;

&lt;p&gt;Je consacre la majeure partie de mon temps à l’évaluation des risques, y compris ceux que posent les outils d’IA. Souvent, nous devons évaluer le risque au regard d’une opportunité d’améliorer l’activité : dans ce cas, les gains de productivité des employés et les effets indirects, comme la satisfaction des collaborateurs ou le fait de disposer de temps pour travailler sur des projets plus stratégiques.&lt;/p&gt;

&lt;p&gt;En résumé, nous devons nous poser la question suivante : existe-t-il un moyen d’introduire les outils demandés par les employés et d’en tirer les bénéfices, tout en maintenant le risque à un niveau acceptable ?&lt;/p&gt;

&lt;p&gt;C’est là qu’une &lt;a href="https://www.ivanti.com/fr/resources/research-reports/proactive-security"&gt;approche axée en priorité sur les risques&lt;/a&gt; entre en jeu. Une approche de l’adoption de l’IA axée en priorité sur les risques se concentre sur les données qui doivent être intégrées à l’IA et sur la manière dont le tiers les traite. Cette approche est similaire à la gestion des risques fournisseurs : elle permet aux organisations d’utiliser des pratiques et processus établis, tout en les adaptant aux questions propres à l’IA.&lt;/p&gt;

&lt;p&gt;&lt;img alt="Horizontal color gradient arrow illustrates a spectrum from &amp;quot;Reactive response&amp;quot; to &amp;quot;Proactive response.&amp;quot; On the left, &amp;quot;Reflexive bans of AI tools&amp;quot; result in &amp;quot;Circumvention&amp;quot; and &amp;quot;Unknown risk.&amp;quot; On the right, &amp;quot;Risk-first approach&amp;quot; results in &amp;quot;Employee engagement,&amp;quot; &amp;quot;Safe, sanctioned adoption,&amp;quot; and &amp;quot;Known, managed risk.&amp;quot;" src="https://static.ivanti.com/sites/marketing/media/images/blog/2025/12/183216-shadow_ai_and_the_risk_first_approach_b.jpg"&gt;&lt;/p&gt;

&lt;p&gt;Les principales questions à se poser sont les suivantes :&lt;/p&gt;

&lt;ol&gt;
	&lt;li&gt;Nos données seront-elles utilisées pour entraîner le modèle d’IA ?&lt;/li&gt;
	&lt;li&gt;Pendant combien de temps nos données sont-elles conservées ?&lt;/li&gt;
	&lt;li&gt;Quelles protections existent pour réduire le risque d’exposition de nos données ?&lt;/li&gt;
	&lt;li&gt;Qui détient les droits sur la propriété intellectuelle générée à l’aide de l’IA ?&lt;/li&gt;
&lt;/ol&gt;

&lt;p&gt;Limiter la prolifération des outils d’IA est un élément essentiel de ce travail. À mesure que davantage de fournisseurs proposent des outils d’IA spécialisés, et que vous intégrez plus de fournisseurs tout en donnant à leurs outils d’IA l’accès à vos données, votre risque augmente. Cela vaut également pour les outils existants qui introduisent soudainement l’IA sans modification de coût ni de contrat, ce qui complique la tenue d’un inventaire précis des outils d’IA.&lt;/p&gt;

&lt;h2&gt;Adopter un cadre de gouvernance de l’IA chez Ivanti&lt;/h2&gt;

&lt;p&gt;Chez Ivanti, nous luttons contre l’IA fantôme grâce à une approche axée en priorité sur les risques qui repose de bout en bout sur &lt;a href="https://www.ivanti.com/fr/resources/research-reports/dex-security"&gt;l’engagement des collaborateurs&lt;/a&gt;.&lt;/p&gt;

&lt;p&gt;&lt;img alt="Four connected colored boxes form a process flowchart: &amp;quot;Employee engagement&amp;quot; leads to &amp;quot;Pathways to request AI tool approval,&amp;quot; then &amp;quot;Risk assessment,&amp;quot; and finally &amp;quot;Adoption and periodic review,&amp;quot; with an arrow looping back from the last step to the first." src="https://static.ivanti.com/sites/marketing/media/images/blog/2025/12/183216-shadow_ai_and_the_risk_first_approach_c.jpg"&gt;&lt;/p&gt;

&lt;h3&gt;Faire sortir l’utilisation de l’IA de l’ombre&lt;/h3&gt;

&lt;p&gt;Même si nous n’encouragerions jamais l’IA fantôme, les employés qui y ont recours disposent de connaissances précieuses à partager sur la manière d’intégrer l’IA aux workflows. Ainsi, plutôt que d’interdire toute utilisation de l’IA, nous devons nous assurer que les employés disposent d’un parcours clair pour demander des outils d’IA à utiliser au travail et qu’il existe régulièrement des occasions de dialogue ouvert.&lt;/p&gt;

&lt;p&gt;Favoriser un dialogue ouvert met les employés à l’aise pour discuter des outils qui les aident à réussir et signifie, au bout du compte, qu’ils les utiliseront, ou utiliseront des outils équivalents, en toute sécurité. Cela permet aux employés de devenir des partenaires actifs dans l’élaboration d’une gouvernance appropriée, plutôt que de chercher à contourner les restrictions.&lt;/p&gt;

&lt;h3&gt;Une approche mesurée de la mise en œuvre et de l’adoption de l’IA&lt;/h3&gt;

&lt;p&gt;Une fois qu’un outil est approuvé, il est important de veiller à sa bonne mise en œuvre et de comprendre à quelles données vous lui avez donné accès. C’est particulièrement important au regard des risques de gouvernance des données et de sécurité que les outils d’IA générative font peser sur les organisations. En examinant l’IA sous l’angle de la gouvernance des données, il est possible de traiter de nombreux aspects du risque lié à l’IA.&lt;/p&gt;

&lt;p&gt;Chez Ivanti, nous adoptons une approche mesurée : nous dédions une équipe à la réalisation de tests contrôlés d’outils d’IA générative avec d’autres équipes. Nous mettons ensuite en place des boucles de retour d’information, et l’adoption se déploie progressivement afin d’éviter toute perturbation.&lt;/p&gt;

&lt;h3&gt;Mettre en place une boucle de retour d’information pour les outils d’IA&lt;/h3&gt;

&lt;p&gt;Nous devons nous poser régulièrement les questions suivantes :&lt;/p&gt;

&lt;ul&gt;
	&lt;li&gt;Comment les employés d’Ivanti utilisent-ils l’IA ?&lt;/li&gt;
	&lt;li&gt;L’apprécient-ils ?&lt;/li&gt;
	&lt;li&gt;Quels retours ont-ils à partager ?&lt;/li&gt;
	&lt;li&gt;Comment pouvons-nous améliorer l’outil ?&lt;/li&gt;
&lt;/ul&gt;

&lt;p&gt;Cette conversation continue garantit que nous utilisons l’IA de manière responsable tout en répondant aux besoins de productivité des employés.&lt;/p&gt;

&lt;p&gt;Il ne s’agit pas de suivre la tendance de l’IA à tout prix. Il s’agit de savoir si cela en vaut la peine, pour l’entreprise comme pour les personnes qui l’utilisent. L’IA fantôme stimule la productivité d’une seule personne. Mais si l’on prend cette productivité et qu’on l’étend, on obtient une amélioration significative pour l’ensemble de l’entreprise.&lt;/p&gt;

&lt;h2&gt;Lutter de manière proactive contre l’IA fantôme&lt;/h2&gt;

&lt;p&gt;Le fil conducteur est le suivant : même si l’IA, et en particulier l’IA fantôme, présente de nouveaux risques préoccupants, elle est là pour durer. Les employés qui utilisent l’IA en dehors des canaux officiels ne sont pas mal intentionnés ; ils cherchent plutôt à apporter de la valeur à l’entreprise, même s’ils ne s’y prennent pas de la bonne manière.&lt;/p&gt;

&lt;p&gt;Une &lt;a href="https://www.ivanti.com/fr/blog/ai-cybersecurity-best-practices-meeting-a-double-edged-challenge"&gt;approche proactive de l’adoption de l’IA axée en priorité sur les risques&lt;/a&gt; reconnaît cette réalité. Au lieu d’interdictions réactives qui ne font qu’encourager les contournements, nous devons impliquer les employés afin de comprendre les problèmes qu’ils cherchent à résoudre avec l’IA, pour pouvoir leur proposer des options sûres qui répondent à nos exigences en matière de sécurité et de confidentialité des données.&lt;/p&gt;
</description><pubDate>Mon, 15 Dec 2025 14:00:01 Z</pubDate></item></channel></rss>