Télécharger le rapport: Comment aligner DSI et PDG à l’ère de l’IA

fermer
fermer
Le réseau de demain
Le réseau de demain
Planifiez votre chemin vers un réseau plus rapide, plus sûr et plus résilient, conçu pour les applications et les utilisateurs que vous prenez en charge.
Essayez Netskope
Mettez la main à la pâte avec la plateforme Netskope
C'est l'occasion de découvrir la plateforme Netskope One single-cloud de première main. Inscrivez-vous à des laboratoires pratiques à votre rythme, rejoignez-nous pour des démonstrations mensuelles de produits en direct, faites un essai gratuit de Netskope Private Access ou participez à des ateliers dirigés par un instructeur.
Un leader sur SSE. Désormais leader en matière de SASE à fournisseur unique.
Netskope est reconnu comme le leader le plus avancé dans sa vision pour les plateformes SSE et SASE.
2X est un leader dans le Magic Quadrant de Gartner® pour les plateformes SASE
Une plateforme unifiée conçue pour votre parcours
Sécuriser l’IA générative pour les nuls
Sécuriser l’IA générative pour les nuls
Découvrez comment votre organisation peut concilier le potentiel d'innovation de l'IA générative avec des pratiques robustes en matière de sécurité des données.
Prévention des pertes de données (DLP) pour les Nuls eBook
La prévention moderne des pertes de données (DLP) pour les Nuls
Obtenez des conseils et des astuces pour passer à un système de prévention des pertes de données (DLP) dans le nuage.
Réseau SD-WAN moderne avec SASE pour les nuls
SD-WAN moderne pour les nuls en SASE
Cessez de rattraper votre retard en matière d'architecture de réseau
Identification des risques
Advanced Analytics transforme la façon dont les équipes chargées des opérations de sécurité utilisent les données pour mettre en œuvre de meilleures politiques. Avec Advanced Analytics, vous pouvez identifier les tendances, cibler les domaines préoccupants et utiliser les données pour prendre des mesures.
Support technique de Netskope
Support technique de Netskope
Nos ingénieurs d'assistance qualifiés sont répartis dans le monde entier et possèdent des expériences diverses dans les domaines de la sécurité du cloud, des réseaux, de la virtualisation, de la diffusion de contenu et du développement de logiciels, afin de garantir une assistance technique rapide et de qualité
Vidéo Netskope
Formation Netskope
Grâce à Netskope, devenez un expert de la sécurité du cloud. Nous sommes là pour vous aider à achever votre transformation digitale en toute sécurité, pour que vous puissiez profiter pleinement de vos applications cloud, Web et privées.

Ce rapport analyse les principales tendances en matière de risques de cybersécurité qui ont un impact sur les organisations du monde entier. Il traite de l'adoption croissante des outils d'IA générative (genAI) et des défis de sécurité des données qui y sont associés. En outre, il met en évidence le nombre croissant de violations de la politique des données, où des informations sensibles sont de plus en plus souvent divulguées par le biais de services en nuage non autorisés, d'applications personnelles et de plates-formes de genAI.

23 minutes de lecture

Introduction lien lien

L'édition 2026 du Netskope Cloud and Threat Report est conçue pour analyser les tendances les plus significatives en matière de cybersécurité de l'année précédente, offrant un aperçu critique des défis et des risques qui définiront le paysage de l'entreprise en 2026. En 2025, l'adoption rapide, et souvent non contrôlée, de l'IA générative a fondamentalement remodelé le paysage de la cybersécurité. Alors que les organisations ont dû faire face à la complexité de la sécurité des données dans le nuage, aux campagnes de phishing persistantes et aux logiciels malveillants diffusés par des canaux fiables, l'introduction de l'utilisation généralisée de l'IA - en particulier l'" IA fantôme " et l'" IA agentique " émergente - a ajouté New et des risques complexes d'exposition des données à l'environnement de l'entreprise moderne. Ce rapport revient sur les tendances les plus significatives de 2025 et donne un aperçu critique de l'évolution du paysage des menaces pour 2026, en soulignant la nature additive des risques auxquels les équipes de sécurité doivent désormais faire face. Non seulement les équipes de sécurité doivent toujours gérer les risques existants, mais elles doivent également gérer les risques créés par la genAI.

Le risque le plus immédiat spécifique à la genAI est l'augmentation substantielle de l'exposition aux données, le taux de violations de la politique des données associé à l'utilisation des applications de genAI ayant doublé l'année dernière. Cette adoption accélérée est souvent motivée par l'IA fantôme - l'utilisation par les employésde services non gérés et de comptes personnels - qui entraîne la fuite de matériel très sensible, y compris le code source, les données réglementées et la propriété intellectuelle. Parallèlement, l'introduction opérationnelle de systèmes d'IA agentiques, qui exécutent des actions complexes et autonomes sur des ressources internes et externes, crée une vaste surface d'attaque ( New ) qui nécessite une réévaluation fondamentale des périmètres de sécurité et des modèles de confiance.

Cette combinaison de nouvelles menaces basées sur l'IA et de problèmes de sécurité hérités du passé définit l'évolution du paysage des menaces pour 2026. Le comportement des employés et les outils d'IA New évoluant plus rapidement que les mesures de protection traditionnelles, il est essentiel de renforcer la surveillance, les contrôles de prévention des pertes de données (DLP) et la posture de sécurité globale.

Dans ce rapport lien lien

  • L'utilisation de SaaS genAI augmente rapidement : Le nombre de personnes utilisant des applications SaaS genAI telles que ChatGPT et Gemini a été multiplié par trois, tandis que le nombre d'invites envoyées aux applications a été multiplié par six au cours de l'année dernière. L'IA fantôme reste un défi important, avec 47% des utilisateurs de genAI qui utilisent des applications d'IA personnelles.
  • Les incidents de violation de la politique de données de la GenAI augmentent rapidement : Avec la popularité croissante des apps de genAI, le nombre d'incidents liés à l'envoi de données sensibles par des utilisateurs à des apps d'IA a doublé au cours de l'année écoulée, l'organisation moyenne constatant 223 incidents par mois.
  • Les applications personnelles représentent un risque important de menace d'initié : 60% des incidents de menace d'initié impliquent des instances d'applications cloud personnelles, avec des données réglementées, de la propriété intellectuelle, du code source et des identifiants fréquemment envoyés à des instances d'applications personnelles en violation des politiques de l'organisation.
  • Le phishing reste un problème persistant : Malgré une baisse d'une année sur l'autre du nombre de personnes cliquant sur des liens d'hameçonnage, l'hameçonnage reste un problème persistant : 87 utilisateurs sur 10 000 cliquent sur un lien d'hameçonnage chaque mois, et Microsoft est la marque la plus imitée.
  • Les logiciels malveillants continuent de s'infiltrer dans les entreprises par le biais de canaux fiables : Les attaquants continuent de distribuer avec succès des logiciels malveillants à leurs victimes par le biais de canaux de confiance, notamment des registres de logiciels comme npm et des applications en nuage populaires comme GitHub, OneDrive et Google Drive.

 

L'utilisation de l'IA générique SaaS augmente rapidement lien lien

Au cours de l'année écoulée, les entreprises ont continué à s'interroger sur la manière dont les employés utilisent les outils d'IA générative. À l'instar des premiers jours des SaaS et des plateformes en nuage, de nombreux travailleurs ont commencé à expérimenter les applications d'IA de leur propre chef, généralement en se connectant avec des comptes personnels, bien avant que les équipes informatiques ou de sécurité ne déploient des outils d'IA générique approuvés par l'entreprise au sein de leur personnel. Ce schéma a donné naissance à ce que l'on appelle aujourd'hui l'IA fantôme, c'est-à-dire l'utilisation de l'IA qui se fait en dehors de la visibilité, de la politique et du contrôle de l'organisation.

Malgré l'évolution rapide vers des licences d'entreprise et des cadres de gouvernance, l'accès non réglementé est encore très répandu. La surveillance interne des organisations montre qu'une part importante des employés utilisent des outils tels que ChatGPT, Google Gemini et Copilot en utilisant des informations d'identification qui ne sont pas associées à leur organisation. La bonne nouvelle est que ce comportement évolue dans le bon sens. L'utilisation des comptes personnels a considérablement diminué au cours de l'année écoulée, le pourcentage d'utilisateurs d'IA qui utilisent des applications d'IA personnelles étant passé de 78% à 47%. Parallèlement, le pourcentage de personnes utilisant des comptes gérés par l'organisation est passé de 25% à 62%, ce qui indique que de plus en plus d'entreprises normalisent l'accès à l'IA et renforcent leur surveillance. Toutefois, on observe un chevauchement croissant des personnes qui passent d'un compte personnel à un compte d'entreprise, passant de 4% des utilisateurs à 9% des utilisateurs. Ce chevauchement indique que les entreprises ont encore du travail à faire pour offrir les niveaux de commodité ou les fonctions que les utilisateurs souhaitent. L'évolution vers les comptes gérés est encourageante, mais elle montre aussi à quel point le comportement des employés peut rapidement dépasser la gouvernance. Les organisations qui souhaitent réduire leur exposition auront besoin de politiques plus claires, d'un meilleur provisionnement et d'une visibilité permanente sur la manière dont les outils d'IA sont réellement utilisés par le personnel.

Graphique montrant l'utilisation de genAI pour les comptes personnels et les comptes d'organisations

Si le passage des comptes personnels aux comptes d'IA gérés par l'organisation est encourageant, les organisations sont également confrontées à un autre défi : le nombre total de personnes utilisant des applications SaaS genAI augmente de façon exponentielle, triplant au cours de l'année écoulée dans l'organisation moyenne. Ce qui rend cette tendance particulièrement remarquable, c'est qu'elle se produit malgré des contrôles et une gouvernance accrus autour des applications genAI gérées. Cela suggère que la demande des employés et leur dépendance à l'égard des capacités de l'IA générique continuent de s'accélérer plus rapidement que les garde-fous organisationnels ne peuvent être mis en œuvre.

Graphique montrant le pourcentage médian d'utilisateurs de genAI par mois, la zone ombrée montrant les 1er et 3e quartiles.

Alors que le nombre d'utilisateurs a triplé en moyenne, la quantité de données envoyées aux applications SaaS genAI a été multipliée par six, passant de 3 000 à 18 000 invites par mois. Par ailleurs, les 25 premières% des organisations envoient plus de 70 000 messages par mois, et les 1 premières% (non illustrées) envoient plus de 1,4 million de messages par mois. Dans la section suivante, nous explorons les risques qui accompagnent ce flux croissant de données dans les applications SaaS genAI.

Messages-guides GenAI par organisation - médiane, la zone ombrée montrant les 1er et 3e quartiles

Au cours de l'année écoulée, plusieurs applications de genAI se sont imposées comme des piliers dans diverses régions et industries. ChatGPT a enregistré une adoption à 77%, suivi par Google Gemini à 69%. Microsoft 365 Copilot a atteint 52% d'adoption, ce qui montre un fort intérêt pour les fonctions d'IA intégrées dans les environnements de travail quotidiens. Au-delà de ces outils de pointe, les organisations ont également fait un usage intensif de diverses applications d'IA spécialisées et intégrées, adaptées aux besoins opérationnels, analytiques et à ceux du site workflow.

graphique montrant les applications de genAI les plus populaires en fonction du pourcentage d'organisations utilisant ces applications

Le graphique ci-dessous montre comment l'adoption des principales applications de genAI a évolué au cours de l'année écoulée, selon les régions et les secteurs d'activité. ChatGPT a maintenu un taux d'utilisation élevé, avec une moyenne de 77% tout au long de l'année. Google Gemini a connu une forte progression, passant de 46% à 69%, ce qui indique une tendance croissante des organisations à utiliser plusieurs services SaaS genAI dont les fonctionnalités se chevauchent. Microsoft 365 Copilot a atteint 52%, grâce à son intégration dans l'écosystème des produits Microsoft 365. Perplexity a également connu une croissance régulière, passant de 23% à 35%, probablement en raison de la popularité croissante du navigateur Comet et de son IA rationalisée axée sur la recherche workflow. Notamment, Grok, qui était auparavant l'une des applications genAI les plus fréquemment bloquées, a commencé à gagner du terrain en avril, son utilisation atteignant 28%, car de plus en plus d'organisations ont expérimenté ses capacités malgré les restrictions antérieures.

graphique montrant les applications les plus populaires en fonction du pourcentage d'organisations

L'adoption rapide et décentralisée d'outils d'IA SaaS génératifs remodèlera fondamentalement le paysage de la sécurité du cloud en 2026. Nous prévoyons deux changements majeurs : la poursuite de la croissance exponentielle de l'utilisation de la genAI dans les fonctions commerciales et le détrônement de ChatGPT par l'écosystème Gemini en tant que plateforme SaaS de genAI la plus populaire. Au rythme actuel, Gemini devrait dépasser ChatGPT au cours du premier semestre 2026, ce qui témoigne de l'intensité de la concurrence et de la rapidité de l'innovation dans l'espace. Les organisations auront du mal à maintenir la gouvernance des données alors que les informations sensibles circulent librement dans des écosystèmes d'IA non approuvés, entraînant une augmentation de l'exposition accidentelle des données et des risques de conformité. Les attaquants, à l'inverse, exploiteront cet environnement fragmenté, en s'appuyant sur l'IA pour mener une reconnaissance hyper efficace et concevoir des attaques hautement personnalisées ciblant des modèles propriétaires et des données d'entraînement. La nécessité d'équilibrer l'innovation axée sur l'IA et la sécurité nécessitera une évolution vers des politiques de protection des données tenant compte de l'IA et une couche de visibilité centralisée capable de surveiller et de contrôler l'utilisation de la genAI dans toutes les applications SaaS, ce qui fait de l'application de contrôles d'accès fins et contextuels et de garde-fous éthiques une priorité essentielle en matière de sécurité pour l'année à venir.

 

Les cas de violation de la politique des données de la GenAI augmentent rapidement lien lien

Dans la section précédente, nous avons mis en évidence une multiplication par trois du nombre d'utilisateurs de genAI et une multiplication par six du nombre d'invites envoyées aux applications SaaS de genAI. La principale raison pour laquelle cette tendance devrait préoccuper les professionnels de la cybersécurité est qu'avec l'augmentation de l'utilisation, il y a une augmentation de l'exposition de données non désirées à des tiers. Ce risque est lié à l'utilisation quotidienne de ces outils. Qu'un utilisateur demande à un système d'IA de résumer des documents, des ensembles de données ou du code, ou qu'il s'en remette à lui pour générer du texte, des médias ou des extraits de logiciels, le site workflow nécessite presque toujours de télécharger des données internes vers un service externe ou de connecter vos données internes à une application d'IA externe. Cette exigence à elle seule crée un risque d'exposition substantiel. Dans cette section, nous examinons les risques d'exposition aux données sensibles qui accompagnent une augmentation aussi spectaculaire de l'utilisation de l'IA générique, en mettant en évidence une multiplication par deux des violations de la politique des données au cours de la même période.

Dans l'organisation moyenne, le nombre d'utilisateurs commettant des violations de la politique des données et le nombre d'incidents liés à la politique des données ont été multipliés par deux au cours de l'année écoulée, avec une moyenne de 3% d'utilisateurs de genAI commettant une moyenne de 223 violations de la politique des données de genAI par mois. Par ailleurs, les 25 premières organisations% constatent une moyenne de 2 100 incidents par mois sur 13% de leur base d'utilisateurs de genAI, ce qui montre que la gravité du problème varie considérablement d'une organisation à l'autre.

Cet écart, qui se traduit par une multiplication par deux des violations de la politique en matière de données, alors que le nombre d'utilisateurs de la genAI est multiplié par trois et celui des messages-guides par six, révèle une lacune importante dans le dispositif de sécurité de l'organisation. Le doublement des infractions ne représente que les incidents détectés. L'augmentation plus faible des violations par rapport à l'utilisation souligne que de nombreuses organisations n'ont pas encore atteint la maturité pour régir cette activité ; 50% des organisations n'ont pas de politiques de protection des données exécutoires pour les apps de genAI. Dans ces environnements, les employés peuvent envoyer des données sensibles à des modèles d'IA sans être détectés, masquant ainsi l'étendue réelle de la fuite de données. Par conséquent, le doublement observé est probablement une sous-estimation du risque réel d'exposition des données, ce qui suggère que le problème est pire dans la majorité des organisations qui continuent à se fier à la confiance des utilisateurs plutôt qu'à l'application des règles techniques. Ces organisations devraient fortement envisager de renforcer leur gouvernance des données et de mettre en œuvre des contrôles exécutoires tenant compte du contenu.

graphique montrant les téléchargements moyens de données sensibles vers les applications genAi pourcentage médian, la zone ombrée montrant les 1er et 3e quartiles

Les risques d'exposition aux données associés à la genAI sont amplifiés par le grand nombre d'outils d'IA disponibles et par la présence constante d'outils d'IA fantômes utilisés sans approbation ni surveillance. En conséquence, les organisations sont régulièrement confrontées à plusieurs catégories de données sensibles transférées vers les plateformes de genAI en violation des politiques internes. Les types de données les plus courants sont les suivants

  • Le code source, que les utilisateurs soumettent souvent lorsqu'ils recherchent une aide au débogage, des suggestions de remaniement ou la génération de code.
  • Les données réglementées, telles que les données personnelles, financières ou de santé.
  • La propriété intellectuelle, y compris les contrats, les documents internes et les recherches exclusives que les employés téléchargent à des fins d'analyse ou de synthèse.
  • Les mots de passe et les clés, qui apparaissent fréquemment dans les échantillons de code ou les fichiers de configuration.

Les trois catégories de données les plus impliquées dans les violations de la politique de données de genAI au cours de l'année écoulée étaient le code source (42%), les données réglementées (32%) et la propriété intellectuelle (16%). La fréquence accrue de ces incidents est due à une série de facteurs, allant de l'adoption rapide des outils de genAI et de leur intégration plus poussée dans le flux de travail quotidien à un manque de sensibilisation à la sécurité des données de la part des employés lorsqu'ils utilisent des outils d'IA, ce qu'ils font souvent sans l'approbation ou la surveillance de l'informatique ou de la sécurité.

La combinaison de l'augmentation des violations de la politique des données et de la sensibilité élevée des données régulièrement compromises devrait être une préoccupation majeure pour les organisations qui n'ont pas pris d'initiatives pour maîtriser les risques liés à l'IA. En l'absence de contrôles renforcés, la probabilité d'une fuite accidentelle, d'un manque de conformité et d'une compromission en aval continue d'augmenter de mois en mois.

Graphique montrant le type de violations de la politique des données pour les applications de genAI

Au-delà des applications traditionnelles de genAI, les technologies émergentes telles que les navigateurs alimentés par l'IA et les applications exploitant le Model Context Protocol (MCP) - qui devient rapidement la méthode privilégiée pour connecter les agents d'IA aux ressources de l'entreprise - présentent des risques potentiels supplémentaires. Ces outils peuvent exécuter des tâches, accéder à des ressources locales ou en nuage et interagir avec d'autres logiciels au nom de l'utilisateur, élargissant ainsi la surface d'attaque de l'organisation. Étant donné que les agents MCP peuvent se connecter à des services ou à des outils externes, des informations sensibles pourraient être exposées par inadvertance et des acteurs malveillants pourraient exploiter ces capacités pour compromettre des systèmes ou des flux de travail. Même si l'adoption n'est pas généralisée, les entreprises doivent considérer les navigateurs d'IA et les systèmes intégrés aux MCP comme de nouveaux domaines de préoccupation et mettre en œuvre des politiques de gouvernance, de surveillance et d'utilisation en conséquence.

L'essor des navigateurs d'IA et des serveurs MCP en 2026 va amplifier le problème déjà croissant des fuites de données de genAI, obligeant davantage d'organisations à acquérir une meilleure visibilité et un meilleur contrôle de leur utilisation des technologies d'IA. La question centrale pour les responsables de la sécurité restera de savoir comment protéger le matériel sensible tout en permettant au personnel de bénéficier de la genAI. Le renforcement de la couverture DLP (Prévention des pertes de données), l'amélioration de la sensibilisation des employés et l'application de politiques claires en matière de traitement des données seront les principaux domaines d'intervention de nombreuses organisations.

Le blocage des applications genAI indésirables réduit le risque d'exposition aux données

La section précédente s'est concentrée sur la manière dont les politiques de protection des données tenant compte du contenu peuvent contrôler le flux de données sensibles dans les applications de genAI. L'hypothèse sous-jacente était que ces applications devaient pouvoir être utilisées en toute sécurité dans des contextes spécifiques et servir un objectif professionnel légitime. Lorsqu'une application ne peut être utilisée en toute sécurité dans aucun contexte ou qu'elle ne sert aucun objectif professionnel légitime, la réduction des risques devient beaucoup plus facile : il suffit de bloquer complètement l'application. 90% des organisations utilisent cette stratégie basique mais efficace, l'organisation moyenne bloquant activement 10 applications. Dans ce cas, un "blocage actif" signifie non seulement qu'une organisation a mis en place une politique de blocage de l'application pour tous ses utilisateurs, mais aussi que cette politique empêche activement les utilisateurs de tenter d'utiliser l'application (par opposition à une politique qui bloque quelque chose que personne n'essaie d'utiliser de toute façon). Bien que les politiques de chaque organisation diffèrent, certains outils sont restreints beaucoup plus souvent que d'autres, ce qui révèle où les équipes de sécurité voient le potentiel de nuisance le plus important. Pour de nombreux environnements, le blocage de catégories entières de services genAI à haut risque peut offrir une protection plus facile à gérer que l'évaluation des outils un par un.

ZeroGPT est actuellement l'application liée à la genAI la plus fréquemment bloquée, avec 45% des organisations qui en restreignent l'accès. De nombreuses équipes de sécurité considèrent que ce service présente un risque élevé, car les outils de détection de l'IA exigent souvent que les utilisateurs soumettent des textes complets, des codes sources ou d'autres documents sensibles à des fins d'analyse.

DeepSeek suit avec 43% des organisations qui le bloquent, motivées par des inquiétudes concernant le manque de transparence, l'évolution rapide du comportement des plateformes, la souveraineté des données et les incertitudes associées aux écosystèmes d'IA émergents.

Ces tendances de blocage suggèrent que les organisations ne réagissent pas seulement aux risques posés par les outils individuels, mais qu'elles mûrissent également leurs stratégies de gouvernance. L'accent est mis sur la prévention du départ des données sensibles de l'organisation, en particulier vers des services dont les garanties de sécurité ne sont pas claires ou qui ne divulguent pas suffisamment d'informations sur la manière dont le contenu de l'utilisateur est traité et stocké.

«  »

Les politiques de blocage des applications d'IA indésirables ont généralement été très efficaces. Bien que le nombre d'applications genAI suivies par Netskope Threat Labs ait été multiplié par cinq, passant de 317 à plus de 1 600 au cours de l'année écoulée, le nombre moyen d'applications IA utilisées dans une organisation n'a augmenté que de 33%, passant de 6 à 8. Ce n'est que dans le top 1% des organisations (non illustré), où les contrôles sont plus laxistes, que nous avons constaté des augmentations significatives, de 47 à 89 applications. Ces organisations aberrantes devraient rappeler à toutes les organisations de faire l'inventaire du nombre d'applications de genAI qu'elles utilisent et de s'assurer qu'elles servent toutes un objectif commercial légitime. Les entreprises atypiques peuvent réduire considérablement leurs risques en limitant simplement l'accès aux applications qui ne sont pas essentielles pour l'entreprise et en appliquant des politiques de protection des données et de coaching aux applications qui le sont.

«  »

En 2026, nous prévoyons que le nombre d'organisations aberrantes autorisant l'utilisation de dizaines d'applications d'IA générique diminuera à mesure que davantage d'organisations commenceront à exercer un contrôle sur leurs écosystèmes d'IA générique, grâce à l'introduction continue des applications d'IA générique New et des moyens d'interaction avec les applications d'IA générique New, tels que les navigateurs d'IA. Après avoir acquis une meilleure visibilité sur leur utilisation de la genAI, davantage d'organisations adopteront une approche plus proactive en bloquant toutes les applications d'IA, à l'exception de celles figurant sur une liste approuvée.

L'adoption de l'IA agentique amplifie l'exposition aux données et le risque d'initié

Outre les navigateurs d'IA et les serveurs MCP, l'IA agentique est une autre tendance émergente dans l'espace genAI qui oblige les organisations à faire évoluer leur posture de sécurité. Les systèmes d'IA agentiques sont ceux qui exécutent des actions complexes et autonomes à partir de ressources internes et externes. D'ores et déjà, les organisations constatent une adoption rapide de l'IA agentique, à la fois par le biais de services SaaS et de plateformes d'IA telles que Azure OpenAI. Alors que l'adoption initiale a favorisé les applications SaaS pour leur commodité, les solutions basées sur des plateformes permettent désormais aux entreprises d'héberger des modèles en interne, de les intégrer à l'infrastructure existante et de créer des applications personnalisées ou des agents autonomes adaptés à un flux de travail spécifique.

Actuellement, 33% des organisations utilisent les services OpenAI via Azure, 27% utilisent Amazon Bedrock et 10% utilisent Google Vertex AI. L'évolution vers ces plateformes d'entreprise est motivée par la disponibilité croissante de services de genAI sécurisés, basés sur le cloud, qui offrent des contrôles de confidentialité plus stricts et des options d'intégration plus approfondies. La croissance d'une année sur l'autre souligne encore cette dynamique : le nombre d'utilisateurs de Bedrock et le volume de trafic de Bedrock ont tous deux été multipliés par trois, tandis que le nombre d'utilisateurs de Vertex AI a été multiplié par six, avec un trafic multiplié par dix. Ces tendances mettent en évidence la rapidité avec laquelle les organisations font évoluer leur infrastructure de genAI à mesure qu'elles explorent des cadres de déploiement plus privés, plus souples et plus conformes.

Même si les données circulent de plus en plus dans des cadres gérés, que ce soit par le biais de modèles hébergés ou d'agents d'IA autonomes, les risques de sécurité restent élevés. L'essor rapide des systèmes agentiques introduit New vecteurs d'attaque, y compris une mauvaise utilisation des outils, des actions autonomes peu sûres et des voies élargies pour l'exfiltration des données. Les modèles gérés réduisent certains risques, mais ne peuvent pas éliminer l'exposition à l'injection rapide, à l'accès excessif aux outils, aux intégrations d'API non sécurisées ou à la fuite involontaire de données d'un contexte à l'autre. À mesure que les agents d'intelligence artificielle acquièrent la capacité d'exécuter des tâches et d'interagir avec des services internes et externes, l'impact potentiel de mauvaises configurations ou d'un flux de travail compromis augmente considérablement. Les organisations qui adoptent ces plateformes doivent associer la modernisation à des contrôles de sécurité rigoureux, à une surveillance continue et à une conception à moindre privilège pour s'assurer que l'évolutivité ne se fait pas au détriment de la sécurité.

«  »

Même lorsque les agents et les applications d'IA fonctionnent sur site ou dans des environnements d'entreprise gérés, l'accès aux modèles sous-jacents se fait encore souvent par le biais d'API hébergées dans le nuage plutôt que par des interfaces de navigation traditionnelles. Alors que les interactions basées sur le navigateur passent par des domaines tels que chatgpt.com, Les flux de travail automatisés, les outils internes et les agents d'intelligence artificielle s'appuient plutôt sur des points de terminaison tels que api.openai.com pour l'accès programmatique.

Cette évolution s'accélère rapidement. Aujourd'hui, 70% des organisations se connectent à api.openai.com, reflétant le rôle dominant de l'OpenAI dans l'utilisation de la genAI en dehors des navigateurs, dans les outils internes et les systèmes agentiques. AssemblyAI suit avec 54%, grâce à ses fortes capacités en matière d'intelligence audio et de conversion de la parole au texte. Les API d'Anthropic sont utilisées par 30% des organisations, une tendance alimentée par l'adoption croissante par les développeurs des modèles de Claude pour les tâches de raisonnement, l'analyse structurée et le développement d'applications.

À mesure que l'IA continue de s'intégrer dans l'infrastructure opérationnelle, l'utilisation de la genAI basée sur les API va probablement s'accélérer, devenant l'un des principaux canaux par lesquels les agents d'automatisation et d'IA de l'entreprise interagissent avec les grands modèles de langage.

«  »

L'adoption croissante de l'IA agentique amplifie non seulement les risques d'exposition aux données soulignés plus haut dans ce rapport (parce que les agents peuvent envoyer des données aux applications de genAI à un rythme beaucoup plus rapide), mais aussi les risques d'initiés, puisqu'un agent ayant accès à des données ou à des systèmes sensibles peut causer des dommages à un rythme beaucoup plus élevé. Non seulement un initié malveillant pourrait tirer parti d'un agent pour nuire à son organisation, mais un initié négligent pourrait mal configurer un agent ou le solliciter de manière imprécise. Le non-déterminisme des systèmes agentiques basés sur les LLM amplifie encore ces risques - les hallucinations en cours de route peuvent se combiner pour provoquer des expositions de données ou d'autres dommages organisationnels.

La prolifération rapide de l'IA agentique, ainsi que son évolution vers des flux de travail basés sur des plateformes et pilotés par des API, constituent un défi pour la sécurité à l'horizon 2026. Les organisations doivent reconnaître que si ces systèmes autonomes permettent d'atteindre des niveaux d'efficacité de l'ordre de New, ils élargissent aussi considérablement la surface d'attaque et accélèrent le risque d'exposition des données par des personnes de l'intérieur. Alors que les agents bénéficient d'un accès et d'une autonomie accrus, le succès en 2026 dépendra de l'association de cette innovation avec une modernisation rigoureuse de la sécurité - en particulier, la mise en œuvre d'une surveillance continue, de principes de moindre privilège et de contrôles robustes et adaptés aux agents pour contenir les risques amplifiés d'utilisation abusive des outils et d'exfiltration involontaire des données.

 

L'utilisation d'applications en nuage à des fins personnelles constitue un risque important de menace interne lien lien

Jusqu'à présent, ce rapport s'est concentré sur les risques supplémentaires de cybersécurité créés par l'adoption rapide de l'IA générique. Pour le reste de ce rapport, nous allons nous concentrer sur les risques liés à l'héritage, auxquels se sont ajoutés les risques du site New. Dans cette section, nous nous concentrons sur l'utilisation d'applications personnelles dans le nuage, qui reste un facteur important de risque d'exposition aux données d'initiés. Les employés utilisent souvent des comptes personnels pour des raisons de commodité, de collaboration ou d'accès à des outils d'intelligence artificielle, et ce comportement pose des problèmes importants aux organisations qui tentent de protéger les informations sensibles.

60% des incidents de menace interne impliquent des instances d'applications personnelles dans le nuage, avec des données réglementées, de la propriété intellectuelle, du code source et des informations d'identification fréquemment envoyés vers des applications personnelles en violation des politiques de l'organisation. Alors que le trafic vers les applications en nuage via des comptes personnels est resté pratiquement inchangé au cours de l'année écoulée, les entreprises ont amélioré leur position défensive. Le nombre d'organisations plaçant des contrôles en temps réel sur les données envoyées à des applications personnelles est passé de 70% à 77%, ce qui témoigne de l'importance croissante accordée à la prévention des fuites de données sensibles dans des environnements non gérés. La prévention des pertes de données (DLP) est l'un des outils les plus populaires pour réduire les risques liés à l'utilisation d'applications personnelles, utilisé par 63% des organisations. Cela contraste avec la genAI, où seulement 50% des organisations utilisent la prévention des pertes de données (DLP) pour atténuer le risque d'exposition de données non désirées.

Les organisations continuent de mettre en œuvre une série de mesures visant à réduire le risque d'exposition des données par le biais d'applications personnelles dans le nuage et de l'IA générique. Ces stratégies comprennent le blocage des téléchargements vers des applications personnelles, la fourniture de conseils en temps réel pour aider les employés à manipuler des informations sensibles en toute sécurité, et l'utilisation de solutions DLP (Prévention des pertes de données) pour empêcher les transferts non autorisés de données vers des services non gérés.

Google Drive est l'application la plus fréquemment contrôlée, avec 43% des organisations mettant en œuvre des protections en temps réel, suivie de Gmail (31% ) et de OneDrive (28%). Il est intéressant de noter que le ChatGPT personnel arrive en quatrième position avec 28%, malgré une adoption généralisée, ce qui suggère que les organisations sont encore en train de rattraper leur retard en matière de gouvernance pour les outils de genAI par rapport aux plateformes cloud traditionnelles. Ces chiffres soulignent les efforts en cours pour limiter les mouvements de données non autorisés et atténuer les risques associés à l'utilisation de comptes personnels sur des services non gérés.

«  »

 

Violation de la politique des données dans les applications personnelles

Au cours de l'année écoulée, le pourcentage d'utilisateurs téléchargeant des données vers des applications personnelles en nuage a augmenté de 21%. Aujourd'hui, 31% des utilisateurs d'une organisation moyenne téléchargent chaque mois des données vers des applications en nuage personnelles. Cela représente plus du double du nombre d'utilisateurs qui interagissent avec des applications d'IA chaque mois (15%). Bien qu'il n'augmente pas au même rythme que l'adoption de l'IA, le nombre croissant de personnes envoyant des données vers des applications personnelles en nuage pose un risque de plus en plus important pour la sécurité des données.

Les 63% des organisations qui utilisent la prévention des pertes de données (DLP) pour contrôler et gérer le mouvement des données sensibles dans les applications personnelles nous donnent un aperçu des types de données que les utilisateurs téléchargent en violation des politiques de l'organisation. Les données réglementées, y compris les informations personnelles, financières et médicales, représentent 54% des violations de la politique des données liées aux applications personnelles en nuage. En comparaison, la propriété intellectuelle représente 22%, ce qui reflète le risque permanent de voir des informations exclusives quitter des environnements approuvés. Le code source représente 15% des violations, et les mots de passe et les clés d'API 8%.

À l'horizon 2026, les risques croissants liés à l'utilisation d'applications en nuage à des fins personnelles requièrent une attention stratégique. Alors que le nombre de personnes envoyant des données vers des applications personnelles continue d'augmenter, les organisations doivent veiller à ne pas se détourner des risques liés aux applications personnelles lorsqu'elles traitent des risques émergents liés à l'IA. Le renforcement de la couverture DLP (Prévention des pertes de données), l'amélioration de la formation des employés et l'application rigoureuse de politiques claires de traitement des données pour contenir la menace croissante de l'exposition accidentelle et malveillante des données peuvent constituer une stratégie efficace de réduction des risques dans les deux domaines.

«  »

 

L'hameçonnage reste un défi persistant lien lien

Les sections précédentes se sont principalement concentrées sur les risques d'initiés liés à l'adoption de l'IA et à l'utilisation d'applications personnelles dans le nuage au sein de l'entreprise. Dans cette section, nous nous concentrons sur les adversaires extérieurs et les risques qu'ils continuent de faire peser sur les organisations du monde entier. En outre, nous examinerons les tendances en matière de phishing au cours de l'année écoulée. Les campagnes de phishing ciblant les environnements en nuage ne cessent de gagner en sophistication. Les attaquants s'appuient de plus en plus sur des pages de connexion contrefaites, des applications OAuth malveillantes et des kits de phishing basés sur un proxy inverse qui volent les informations d'identification et les cookies de session en temps réel. Alors que les entreprises transfèrent de plus en plus de flux de travail critiques vers des applications en nuage, l'identité est effectivement devenue le périmètre New, ce qui fait du vol d'informations d'identification des applications en nuage l'un des moyens les plus efficaces de compromission.

Il est encourageant de constater que la sensibilité des utilisateurs a légèrement diminué au cours de l'année écoulée : les clics sur les liens d'hameçonnage sont passés de 119 pour 10 000 utilisateurs l'année dernière à 87 pour 10 000 utilisateurs cette année, soit une baisse de 27%. Toutefois, l'hameçonnage représente toujours une part importante des tentatives d'accès initiales et reste difficile à limiter totalement, comme le montre le nombre considérable de personnes qui continuent à cliquer sur des liens d'hameçonnage.

L'usurpation d'identité reste également une tactique essentielle. Microsoft est désormais la marque la plus usurpée, avec 52% des clics sur les campagnes d'hameçonnage en nuage, suivie par Hotmail (11%) et DocuSign (10%). Ces leurres imitent souvent les flux d'authentification ou les invites de signature de documents afin de recueillir des informations d'identification ou d'obtenir des autorisations d'applications sensibles.

«  »

Une tendance croissante est l'abus du phishing de consentement OAuth, où les attaquants incitent les utilisateurs à accorder l'accès à des applications cloud malveillantes, en contournant complètement les mots de passe et l'authentification multifactorielle (MFA). Combiné à la montée en puissance des kits de détournement de session, le phishing passe de la simple tromperie par courriel à des attaques très techniques de la couche d'identité qui exploitent la façon dont les applications modernes en nuage authentifient les utilisateurs et les maintiennent connectés. Les organisations doivent renforcer la surveillance continue des sessions, la protection des jetons et la détection des accès anormaux plutôt que de s'appuyer uniquement sur la formation des utilisateurs ou les filtres de courrier électronique.

Les cibles de l'hameçonnage se sont considérablement modifiées, les attaquants cherchant à savoir où se trouvent les informations d'identification les plus précieuses. Alors que les applications en nuage et SaaS restent des cibles fréquentes, les portails bancaires représentent désormais 23% des leurres de phishing observés, ce qui reflète l'accent mis par les attaquants sur la fraude financière et la prise de contrôle de comptes. Les services publics ont également connu une forte hausse (21%), en raison de l'exploitation par des pirates des portails d'identification numérique et de services aux citoyens à des fins d'usurpation d'identité et de fraude fiscale. Les suites de productivité en nuage, les plateformes de commerce électronique et les médias sociaux restent les principales cibles, mais les systèmes financiers et gouvernementaux sont désormais au centre des efforts des attaquants.

«  »

Malgré la baisse récente de la sensibilité des utilisateurs, le risque sous-jacent d'hameçonnage reste extrêmement élevé, comme le montre le volume continu de clics. En 2026, cette menace s'accélérera car les attaquants s'appuieront sur l'IA pour concevoir des appâts plus sophistiqués et hyper-efficaces et des attaques de la couche d'identité, et le déclin aura été de courte durée. Pour réussir, les organisations devront considérer l'identité comme le périmètre New, continuer à s'assurer que des stratégies MFA robustes sont utilisées partout, mais aussi mettre en place une surveillance continue des sessions, une protection des jetons et une détection robuste des accès anormaux.

 

Les logiciels malveillants continuent de s'infiltrer dans les entreprises par le biais de canaux fiables lien lien

La dernière couche de notre modèle de menace aggravée à l'aube de 2026 est la persistance des adversaires externes à abuser des canaux de confiance et à exploiter des flux de travail familiers pour inciter les victimes à installer des logiciels malveillants. Les adversaires abusent de plus en plus des services en nuage de confiance pour distribuer des logiciels malveillants, sachant que les utilisateurs se sentent à l'aise avec les plateformes qui leur sont familières. GitHub reste le service le plus utilisé, avec 12% des organisations détectant chaque mois l'exposition d'employés à des logiciels malveillants via cette application, suivi de Microsoft OneDrive (10%) et de Google Drive (5,8%). Leur omniprésence dans la collaboration et le développement de logiciels en fait des canaux idéaux pour diffuser des fichiers infectés avant que les fournisseurs ne puissent les supprimer.

Au-delà des menaces basées sur les fichiers, les logiciels malveillants diffusés sur le web continuent de croître en volume et en sophistication. Les campagnes modernes s'appuient de plus en plus sur des composants web dynamiques et trompeurs plutôt que sur des téléchargements traditionnels. Des techniques telles que les injections basées sur les iframes intègrent des cadres cachés qui chargent silencieusement un JavaScript malveillant, permettant des redirections automatiques, l'exécution de scripts non autorisés ou des téléchargements de type "drive-by". Les attaquants déploient également de faux téléchargeurs, qui imitent le processus de téléchargement de fichiers légitimes afin de capturer des informations d'identification ou de livrer des charges utiles, ainsi que de fausses pages CAPTCHA, qui utilisent des éléments interactifs pour convaincre les utilisateurs d'activer des scripts ou de contourner les protections du navigateur.

L'émergence de logiciels malveillants assistés par LLM, où les attaquants utilisent de grands modèles de langage pour générer des codes malveillants adaptables ou automatiser l'obscurcissement, est une préoccupation croissante. Cette évolution permet des cycles de développement plus rapides et des charges utiles plus personnalisables, qui sont de plus en plus difficiles à détecter et à bloquer à grande échelle.

«  »

Les attaques contre la chaîne d'approvisionnement en logiciels continuent d'augmenter, car les adversaires ciblent de plus en plus les relations de confiance entre les services interconnectés, les plateformes SaaS et les écosystèmes de progiciels. Un exemple récent est la vague d'activité Shai-Hulud ( New ) ciblant la chaîne d'approvisionnement npm, où des paquets malveillants tentent de distribuer du code nuisible par le biais du flux de travail des développeurs.

Au-delà des écosystèmes de paquets, les intégrations SaaS-SaaS sont devenues un point faible critique, les attaquants exploitant les chaînes de confiance API pour se déplacer latéralement entre les applications en nuage. Dans un cas très médiatisé, Salesforce a détecté des appels API suspects provenant d'adresses IP non autorisées via les intégrations Gainsight, ce qui a incité Salesforce à révoquer les jetons d'accès associés, à restreindre les fonctionnalités et à lancer une enquête complète.

Un autre incident notable est la violation de Salesloft répertoriée sous le numéro UNC6395, une attaque de la chaîne d'approvisionnement en plusieurs étapes identifiée par Mandiant/Google. Les attaquants ont abusé des intégrations inter-applications non surveillées, en particulier Salesloft Drift, illustrant la façon dont les connecteurs SaaS compromis peuvent devenir un conduit invisible pour le vol de données.

Ensemble, ces incidents mettent en évidence une tendance qui devrait se poursuivre en 2026 : les attaques contre la chaîne d'approvisionnement sont passées des mises à jour logicielles traditionnelles à la pile cloud moderne, ciblant les registres de colis, les pipelines d'automatisation et les écosystèmes SaaS interconnectés où les contrôles de sécurité sont souvent fragmentés ou aveugles. Pour contrer cette tendance, les organisations doivent en priorité acquérir une visibilité approfondie de ces relations de confiance et s'assurer que leur pile de sécurité peut se défendre contre le large éventail de tactiques que les adversaires utilisent pour échapper aux contrôles de sécurité et tromper leurs victimes.

Recommandations lien lien

Le paysage de la cybersécurité pour 2026 est fondamentalement défini par les couches de complexité croissantes induites par l'adoption rapide et souvent non gouvernée de l'IA générative. Cette évolution n'a pas remplacé les menaces existantes, mais a plutôt superposé New, des risques complexes. Le défi le plus immédiat est l'augmentation substantielle de l'exposition aux données non désirées. Parallèlement, l'émergence de systèmes d'IA agentiques, qui exécutent des actions complexes et autonomes sur les ressources internes, crée une vaste surface d'attaque ( New ) qui amplifie le risque d'intrusion et exige une réévaluation des périmètres de sécurité. Cette combinaison de nouvelles menaces pilotées par l'IA et de préoccupations traditionnelles telles que le phishing persistant et les logiciels malveillants diffusés via des canaux cloud de confiance signifie que les équipes de sécurité doivent désormais gérer un modèle de menace additif, ce qui rend le renforcement de la surveillance, des contrôles DLP (Prévention des pertes de données) et d'une posture de sécurité consciente de l'IA essentiel pour l'année à venir.

Sur la base des tendances mises en évidence dans ce rapport, Netskope Threat Labs encourage vivement les organisations à jeter un regard neuf sur leur dispositif de sécurité global :

  • Inspectez tous les téléchargements HTTP et HTTPS, y compris l'ensemble du trafic web et cloud, afin d'empêcher les logiciels malveillants de s'infiltrer dans votre réseau. Netskope peuvent configurer leur politique de protection contre les menaces. Netskope One Next Gen Secure Web Gateway avec une politique de protection contre les menaces qui s'applique aux téléchargements de toutes les catégories et à tous les types de fichiers.
  • Bloquez l'accès aux applications qui n'ont pas d'utilité professionnelle légitime ou qui présentent un risque disproportionné pour l'organisation. Un bon point de départ consiste à autoriser les applications réputées actuellement utilisées et à bloquer toutes les autres.
  • Utilisez les stratégies DLP (Prévention des pertes de données) pour détecter les informations potentiellement sensibles, notamment le code source, les données réglementées, les mots de passe et les clés, la propriété intellectuelle et les données chiffrées, qui sont envoyées vers des instances d'applications personnelles, des applications genAI ou d'autres emplacements non autorisés.
  • Utilisez la technologie RBI (Remote Browser Isolation) pour fournir une protection supplémentaire lorsqu'il est nécessaire de visiter des sites web qui tombent dans des catégories qui peuvent présenter un risque plus élevé, comme les domaines nouvellement observés et nouvellement enregistrés.

 

Netskope Threat Labs lien lien

Composé des meilleurs chercheurs du secteur en matière de menaces et de logiciels malveillants, Netskope Threat Labs découvre, analyse et conçoit des défenses contre les dernières menaces qui pèsent sur les entreprises. Nos chercheurs présentent régulièrement des exposés et participent bénévolement aux principales conférences sur la sécurité, notamment DefCon, BlackHat et RSA.

 

A propos de ce rapport lien lien

Netskope fournit une protection contre les menaces à des millions d'utilisateurs dans le monde entier. Les informations présentées dans ce rapport sont basées sur des données d'utilisation anonymes collectées par la plateforme Netskope One.

Les statistiques de ce rapport sont basées sur la période allant du 1er octobre 2024 au 31 octobre 2025. Les statistiques reflètent les tactiques des attaquants, le comportement des utilisateurs et la politique de l'organisation.

Jouez à AI CyberSprint - Le jeu de course automobile en ligne ultime