
Alors que nous continuons d'interroger nos nombreux experts Netskope à propos de l'année à venir, nous avons cette semaine sollicité l'avis du Netskope Threat Labs. Nous leur avons demandé comment, selon eux, l'IA allait modifier le paysage des menaces en 2026. Voici ce qu'ils nous ont confié :
Déploiements d'IA axés sur la confidentialité
Ray Canzanese : « Le déploiement croissant d'IA sophistiquées, notamment pour les tâches impliquant des données sensibles ou propriétaires, entraînera un changement significatif du modèle software-as-a-service (SaaS) vers des déploiements plus respectueux de la vie privée et souverains. » Les organisations dans les secteurs réglementés, y compris la finance et les soins de santé, ainsi que celles disposant d'une propriété intellectuelle importante, intensifieront leur passage à des frameworks comme Amazon Bedrock pour garantir que les données restent dans leurs propres périmètres sécurisés et ne sont jamais utilisées pour l'entraînement de modèles par le fournisseur. Cette priorité accordée à la souveraineté des données, à la protection de la propriété intellectuelle et au respect des réglementations telles que le RGPD et la loi HIPAA favorisera l'adoption d'une nouvelle catégorie d'IA « sécurisée dès la conception », où le contrôle de l'emplacement et de l'utilisation des données devient le facteur principal, même si cela introduit une complexité légèrement supérieure à celle d'une offre SaaS traditionnelle. »
Découverte de vulnérabilités pilotée par l'IA
Gianpietro Cutolo : « Les outils de test statique de sécurité des applications (SAST) pilotés par l'IA vont redéfinir la sécurité du code, en détectant les failles logiques et architecturales que les scanners traditionnels ne repèrent pas. Ces outils deviennent rapidement indispensables pour les testeurs d'intrusion et les équipes DevSecOps, car ils automatisent la révision du code et la découverte de vulnérabilités. Cependant, leur potentiel offensif est tout aussi important, comme en témoigne le fait qu'un agent d'IA occupe désormais la première place sur HackerOne aux États-Unis, laissant entrevoir un avenir où les défenseurs et les attaquants utiliseront les mêmes outils intelligents pour prendre l'avantage les uns sur les autres. »
L'essor des campagnes de phishing agentiques autonomes
Jan Michael Alcantara : « Les attaques d'ingénierie sociale ont explosé cette année, car l'IA a facilité la création d'e-mails de phishing convaincants, de vidéos truquées et de sites de phishing réalistes. En 2026, nous pourrions voir apparaître des IA agentiques adverses autonomes capables de mener des campagnes de phishing complètes. Elles pourraient rechercher et profiler des cibles potentielles, effectuer des reconnaissances, concevoir des leurres et des charges utiles personnalisés, et même déployer et gérer une infrastructure de commandement et de contrôle. Cette avancée fragiliserait davantage les barrières techniques au lancement d'attaques sophistiquées, permettant à un plus grand nombre d'acteurs malveillants d'y participer. »
OAuth sera le maillon faible des intégrations de l'IA
Gianpietro Cutolo : « Depuis que les attaquants ont commencé à exploiter les tokens OAuth et des applications tierces lors des récents incidents Salesforce et Salesloft, le même schéma de menace émerge désormais dans les écosystèmes d'IA. À mesure que les agents d'IA et les systèmes basés sur MCP s'intègrent de plus en plus aux API tierces et aux services cloud, ils héritent des maillons les plus faibles d'OAuth : des champs d'action trop permissifs, des politiques de révocation peu claires et des chemins de partage de données cachés. Ces intégrations deviendront des cibles privilégiées pour les attaques de chaîne d'approvisionnement et d'exfiltration de données, où des connecteurs compromis ou des outils infectés permettent aux adversaires de se déplacer silencieusement entre les plateformes d'IA de confiance et les environnements d'entreprise. »

Lire le blog