
L'essor de l'adoption de l'IA élargit la surface d'attaque pour les acteurs malveillants.
Selon IDC*, les dépenses mondiales en IA devraient atteindre près de 750 milliards de dollars US d'ici 2028. Ce chiffre, qui illustre l'adoption et la croissance de cette technologie, peut également être considéré comme une représentation directe de l'ampleur des nouveaux défis en matière de sécurité des données : les professionnels de la cybersécurité, chargés de gérer les risques liés à l'IA, se retrouvent confrontés à une perte de visibilité et de contrôle sur les données de leur entreprise.
Comme lors de l’adoption du cloud il y a dix ans, les menaces ne se limitent pas à un seul comportement ou modèle d’implémentation particulier.
L'utilisation de l'« IA fantôme » (ou l'utilisation non gérée d'outils d'IA) est un vecteur de risque bien connu, les employés privilégiant la facilité d'utilisation à la conformité. Selon l'étude Netskope Cloud and Threat Report 2026, près de la moitié (47 %) des utilisateurs de l'IA générative utilisent des applications d'IA personnelles. Cette utilisation non officielle est problématique, car les employés peuvent, à leur insu, partager des données sensibles avec des applications cloud tierces, et la visibilité comme les contrôles peuvent s'avérer complexes pour de nombreuses organisations.
Mais qu'en est-il des organisations qui développent leurs propres modèles d'IA privés (souvent dans le but de renforcer la sécurité) ? Dans ce cas, les risques sont bien plus nombreux, notamment en ce qui concerne la responsabilité de sécuriser à la fois les données d'entraînement et les résultats du modèle.
Le dernier secteur en plein essor dans le domaine de l'IA est celui des agents autonomes, qui exécutent des tâches indépendamment (avec une supervision humaine minimale). Un atout pour la productivité, mais qui soulève des questions concernant l'accès aux données et leur contrôle. D'ici 2028, 25 % des violations de données en entreprise seront liées à une utilisation abusive des agents d'IA, selon les prévisions de Gartner.
Compte tenu de ces tendances, explorons quelques considérations de sécurité qui constituent une liste de contrôle utile pour garantir que votre organisation aborde les risques sous tous leurs aspects.
1) Utiliser le modèle zero trust comme fondement de la sécurité de l'IA
La sécurisation de l'IA représente un défi unique en matière de sécurité des données, en raison de la manière dont les modèles d'IA traitent les entrées et génèrent les sorties. Étendre un framework de sécurité zero trust à l'IA garantit que chaque requête (provenant d'un humain, d'un modèle ou d'un agent) est vérifiée, que chaque flux de données est surveillé et que l'accès est accordé sur la base d'évaluations dynamiques des risques plutôt que d'autorisations statiques. Des études montrent que deux tiers des organisations déclarent que leurs contrôles zero trust ne permettent pas, à l'heure actuelle, de sécuriser les identités non humaines (NHI), mais 78 % d'entre elles prévoient que la croissance des NHI dépassera celle des identités humaines d'ici 12 mois, soit un risque imminent. Réfléchissez à la manière d'intégrer la sécurité de l'IA à vos frameworks et architectures de sécurité existants et résistez à la tentation d'ajouter des solutions ponctuelles qui complexifient votre infrastructure et sont gourmandes en ressources. Privilégiez les plateformes unifiées qui tirent parti de l'intégration des politiques de sécurité et de l'administration afin de réduire la charge administrative.
2) Affiner votre omniscience face à l'omniprésence de l'IA (procurez-vous un œil qui voit tout)
Seulement 6 % des organisations ont une visibilité complète sur l'utilisation de l'IA, et nous savons tous que les équipes de sécurité ne peuvent pas protéger ce qu'elles ne voient pas, un défi qui s'accentue lorsque la frontière entre l'utilisation d'outils à titre personnel et à des fins professionnelles s'estompe. Sans visibilité sur la manière dont les outils d'IA sont utilisés et sur l'emplacement de leur utilisation, une entreprise s'expose à des risques de fuite de données. Accordez la priorité absolue aux outils qui offrent une véritable visibilité et faites-en le point de départ de la sécurisation de votre IA.
Votre stratégie de sécurité IA doit englober bien plus que des nouvelles applications et modèles d'IA. Ces dernières années, les améliorations optimisées par l'IA se sont multipliées sur les applications SaaS. Après l'engouement des débuts, ces avancées sont devenues la norme. Cela signifie que chaque jour, l'un de vos outils SaaS approuvés peut introduire une nouvelle fonctionnalité d'IA qui ne répond pas à vos exigences de sécurité. Ces mises à jour discrètes passent souvent inaperçues pour les équipes de sécurité, qui sont pourtant chargées d'évaluer les risques avant toute approbation. La surveillance et l'administration manuelles ne suffisent pas : il est essentiel d'adopter la même approche de gestion des risques liés à l'IA que celle appliquée aux risques liés au cloud. Le Netskope Cloud Confidence Index (CCI) offre une visibilité en temps réel sur plus de 83 000 applications cloud et SaaS, ainsi qu'une évaluation des risques pour plus de 10 000 serveurs MCP publics, identifiant les attributs à risque, les types d'authentification et les versions de protocole avant déploiement. Externalisez ces tâches fastidieuses !
3) Prêter attention au déficit de gouvernance de l'IA
Deux tiers des organisations considèrent que leur gouvernance de l'IA n'est que réactive ou en évolution, un tiers font état d'une adoption fragmentée et 38 % regrettent de ne pas avoir mis en place une gouvernance avant que l'adoption ne prenne de l'ampleur. En l'absence de garde-fous clairs, les entreprises qui utilisent l'IA s'exposent à des menaces de sécurité. Évitez de faire partie des 38 % et mettez en place un cadre de politiques visant à garantir une utilisation appropriée de l'IA (tant avant qu'après le déploiement).
4) Améliorer les compétences ET les outils
Près des trois quarts (73 %) des personnes au Royaume-Uni n'ont reçu aucune formation ni éducation en matière d'IA, pourtant 31 % des organisations s'appuient sur des politiques écrites et la conformité des employés comme principale méthode d'application de la sécurité de l'IA, un système surtout basé sur la confiance et enveloppé de mystère. Cette disparité crée des risques d'utilisation inappropriée des outils et expose presque inévitablement à des problèmes de conformité, en particulier dans les secteurs fortement réglementés.
Investissez dans la formation et les outils pour faciliter des interactions optimales avec l'IA, en veillant à ce que chaque membre de l'organisation comprenne clairement les risques, les politiques approuvées pour une utilisation sécurisée de l'IA et les réglementations applicables. Mais n'en restez pas là. Même les équipes les plus qualifiées ont besoin d'aide, et Gartner prévoit que, d'ici 2028, au moins 15 % des décisions quotidiennes des entreprises seront prises de manière autonome par l'IA agentique, contre 0 % en 2024. Les compétences humaines en matière de sécurité de l'IA s'apparentent au permis de conduire : elles permettent de réduire systématiquement les risques, mais sont plus efficaces lorsqu'elles sont associées à des outils de gestion des risques comme les ceintures de sécurité et le système de freinage ABS. Elles pourraient d'ailleurs perdre progressivement de leur pertinence lorsque les voitures autonomes feront leur apparition sur les routes. Il convient d'investir dans la sécurisation des modèles d'IA et des données d'entreprise avec lesquelles ils interagissent, en identifiant les domaines où de nouveaux outils sont nécessaires (tels que les passerelles de sécurité IA et les garde-fous), parallèlement aux bonnes pratiques existantes visant à aider les utilisateurs humains à prendre des décisions sécurisées.
La sécurité dans la voie rapide de l'IA
Netskope permet à ses clients d'adopter l'IA à l'échelle de l'entreprise sans accroître les risques. Nous sécurisons les utilisateurs, les agents, les applications et les données dans les environnements d'IA publics, privés et agentiques grâce à une protection unifiée, allant du renforcement des modèles avant déploiement à la prévention des menaces en temps réel. Netskope One AI Security est la seule plateforme qui sécurise chaque interaction avec l'IA tout en préservant la rapidité et l'expérience utilisateur exigées par vos équipes.
Agissez vite. Restez en sécurité. Gardez le contrôle total.
Pour en savoir plus sur la sécurisation de l'IA en entreprise, rendez-vous sur netskope.com/ai.
* IDC Market Forecast, Worldwide Artificial Intelligence IT Spending Forecast, 2024–2028, Rick Villars et al., octobre 2024, Doc. n° US52635424

Lire le blog