Au cours de l'année écoulée, les entreprises ont continué à s'interroger sur la manière dont les employés utilisent les outils d'IA générative. À l'instar des premiers jours des SaaS et des plateformes en nuage, de nombreux travailleurs ont commencé à expérimenter les applications d'IA de leur propre chef, généralement en se connectant avec des comptes personnels, bien avant que les équipes informatiques ou de sécurité ne déploient des outils d'IA générique approuvés par l'entreprise au sein de leur personnel. Ce schéma a donné naissance à ce que l'on appelle aujourd'hui l'IA fantôme, c'est-à-dire l'utilisation de l'IA qui se fait en dehors de la visibilité, de la politique et du contrôle de l'organisation.
Malgré l'évolution rapide vers des licences d'entreprise et des cadres de gouvernance, l'accès non réglementé est encore très répandu. La surveillance interne des organisations montre qu'une part importante des employés utilisent des outils tels que ChatGPT, Google Gemini et Copilot en utilisant des informations d'identification qui ne sont pas associées à leur organisation. La bonne nouvelle est que ce comportement évolue dans le bon sens. L'utilisation des comptes personnels a considérablement diminué au cours de l'année écoulée, le pourcentage d'utilisateurs d'IA qui utilisent des applications d'IA personnelles étant passé de 78% à 47%. Parallèlement, le pourcentage de personnes utilisant des comptes gérés par l'organisation est passé de 25% à 62%, ce qui indique que de plus en plus d'entreprises normalisent l'accès à l'IA et renforcent leur surveillance. Toutefois, on observe un chevauchement croissant des personnes qui passent d'un compte personnel à un compte d'entreprise, passant de 4% des utilisateurs à 9% des utilisateurs. Ce chevauchement indique que les entreprises ont encore du travail à faire pour offrir les niveaux de commodité ou les fonctions que les utilisateurs souhaitent. L'évolution vers les comptes gérés est encourageante, mais elle montre aussi à quel point le comportement des employés peut rapidement dépasser la gouvernance. Les organisations qui souhaitent réduire leur exposition auront besoin de politiques plus claires, d'un meilleur provisionnement et d'une visibilité permanente sur la manière dont les outils d'IA sont réellement utilisés par le personnel.

Si le passage des comptes personnels aux comptes d'IA gérés par l'organisation est encourageant, les organisations sont également confrontées à un autre défi : le nombre total de personnes utilisant des applications SaaS genAI augmente de façon exponentielle, triplant au cours de l'année écoulée dans l'organisation moyenne. Ce qui rend cette tendance particulièrement remarquable, c'est qu'elle se produit malgré des contrôles et une gouvernance accrus autour des applications genAI gérées. Cela suggère que la demande des employés et leur dépendance à l'égard des capacités de l'IA générique continuent de s'accélérer plus rapidement que les garde-fous organisationnels ne peuvent être mis en œuvre.

Alors que le nombre d'utilisateurs a triplé en moyenne, la quantité de données envoyées aux applications SaaS genAI a été multipliée par six, passant de 3 000 à 18 000 invites par mois. Par ailleurs, les 25 premières% des organisations envoient plus de 70 000 messages par mois, et les 1 premières% (non illustrées) envoient plus de 1,4 million de messages par mois. Dans la section suivante, nous explorons les risques qui accompagnent ce flux croissant de données dans les applications SaaS genAI.

Au cours de l'année écoulée, plusieurs applications de genAI se sont imposées comme des piliers dans diverses régions et industries. ChatGPT a enregistré une adoption à 77%, suivi par Google Gemini à 69%. Microsoft 365 Copilot a atteint 52% d'adoption, ce qui montre un fort intérêt pour les fonctions d'IA intégrées dans les environnements de travail quotidiens. Au-delà de ces outils de pointe, les organisations ont également fait un usage intensif de diverses applications d'IA spécialisées et intégrées, adaptées aux besoins opérationnels, analytiques et à ceux du site workflow.

Le graphique ci-dessous montre comment l'adoption des principales applications de genAI a évolué au cours de l'année écoulée, selon les régions et les secteurs d'activité. ChatGPT a maintenu un taux d'utilisation élevé, avec une moyenne de 77% tout au long de l'année. Google Gemini a connu une forte progression, passant de 46% à 69%, ce qui indique une tendance croissante des organisations à utiliser plusieurs services SaaS genAI dont les fonctionnalités se chevauchent. Microsoft 365 Copilot a atteint 52%, grâce à son intégration dans l'écosystème des produits Microsoft 365. Perplexity a également connu une croissance régulière, passant de 23% à 35%, probablement en raison de la popularité croissante du navigateur Comet et de son IA rationalisée axée sur la recherche workflow. Notamment, Grok, qui était auparavant l'une des applications genAI les plus fréquemment bloquées, a commencé à gagner du terrain en avril, son utilisation atteignant 28%, car de plus en plus d'organisations ont expérimenté ses capacités malgré les restrictions antérieures.

L'adoption rapide et décentralisée d'outils d'IA SaaS génératifs remodèlera fondamentalement le paysage de la sécurité du cloud en 2026. Nous prévoyons deux changements majeurs : la poursuite de la croissance exponentielle de l'utilisation de la genAI dans les fonctions commerciales et le détrônement de ChatGPT par l'écosystème Gemini en tant que plateforme SaaS de genAI la plus populaire. Au rythme actuel, Gemini devrait dépasser ChatGPT au cours du premier semestre 2026, ce qui témoigne de l'intensité de la concurrence et de la rapidité de l'innovation dans l'espace. Les organisations auront du mal à maintenir la gouvernance des données alors que les informations sensibles circulent librement dans des écosystèmes d'IA non approuvés, entraînant une augmentation de l'exposition accidentelle des données et des risques de conformité. Les attaquants, à l'inverse, exploiteront cet environnement fragmenté, en s'appuyant sur l'IA pour mener une reconnaissance hyper efficace et concevoir des attaques hautement personnalisées ciblant des modèles propriétaires et des données d'entraînement. La nécessité d'équilibrer l'innovation axée sur l'IA et la sécurité nécessitera une évolution vers des politiques de protection des données tenant compte de l'IA et une couche de visibilité centralisée capable de surveiller et de contrôler l'utilisation de la genAI dans toutes les applications SaaS, ce qui fait de l'application de contrôles d'accès fins et contextuels et de garde-fous éthiques une priorité essentielle en matière de sécurité pour l'année à venir.