Télécharger le rapport: Comment aligner DSI et PDG à l’ère de l’IA

fermer
fermer
Le réseau de demain
Le réseau de demain
Planifiez votre chemin vers un réseau plus rapide, plus sûr et plus résilient, conçu pour les applications et les utilisateurs que vous prenez en charge.
Essayez Netskope
Mettez la main à la pâte avec la plateforme Netskope
C'est l'occasion de découvrir la plateforme Netskope One single-cloud de première main. Inscrivez-vous à des laboratoires pratiques à votre rythme, rejoignez-nous pour des démonstrations mensuelles de produits en direct, faites un essai gratuit de Netskope Private Access ou participez à des ateliers dirigés par un instructeur.
Un leader sur SSE. Désormais leader en matière de SASE à fournisseur unique.
Netskope est reconnu comme le leader le plus avancé dans sa vision pour les plateformes SSE et SASE.
2X est un leader dans le Magic Quadrant de Gartner® pour les plateformes SASE
Une plateforme unifiée conçue pour votre parcours
Sécuriser l’IA générative pour les nuls
Sécuriser l’IA générative pour les nuls
Découvrez comment votre organisation peut concilier le potentiel d'innovation de l'IA générative avec des pratiques robustes en matière de sécurité des données.
Prévention des pertes de données (DLP) pour les Nuls eBook
La prévention moderne des pertes de données (DLP) pour les Nuls
Obtenez des conseils et des astuces pour passer à un système de prévention des pertes de données (DLP) dans le nuage.
Réseau SD-WAN moderne avec SASE pour les nuls
SD-WAN moderne pour les nuls en SASE
Cessez de rattraper votre retard en matière d'architecture de réseau
Identification des risques
Advanced Analytics transforme la façon dont les équipes chargées des opérations de sécurité utilisent les données pour mettre en œuvre de meilleures politiques. Avec Advanced Analytics, vous pouvez identifier les tendances, cibler les domaines préoccupants et utiliser les données pour prendre des mesures.
Support technique de Netskope
Support technique de Netskope
Nos ingénieurs d'assistance qualifiés sont répartis dans le monde entier et possèdent des expériences diverses dans les domaines de la sécurité du cloud, des réseaux, de la virtualisation, de la diffusion de contenu et du développement de logiciels, afin de garantir une assistance technique rapide et de qualité
Vidéo Netskope
Formation Netskope
Grâce à Netskope, devenez un expert de la sécurité du cloud. Nous sommes là pour vous aider à achever votre transformation digitale en toute sécurité, pour que vous puissiez profiter pleinement de vos applications cloud, Web et privées.

L'animateur Max Havey se penche sur le monde des menaces et du cyber-espionnage basés sur l'IA avec les invités Neil Thacker, responsable mondial de la confidentialité et de la protection des données chez Netskope, et Ray Canzanese, responsable de Netskope Threat Labs. Ensemble, ils discutent d'un rapport récent d'Anthropic sur la toute première campagne de cyberespionnage orchestrée par une IA agentique, en explorant les raisons pour lesquelles ce rapport manque de preuves techniques essentielles et les motivations potentielles qui les sous-tendent. Ils analysent également l'idée selon laquelle l'IA rend les techniques d'attaque existantes - comme le phishing et l'ingénierie sociale - plus accessibles et plus rapides, et débattent de la probabilité d'une nouvelle violation de données provoquée par l'IA en 2026.

Watch

 
Horodatage

*(00:01) : Introduction*(17:46) : L'importance de classer les menaces selon qu'elles sont humaines ou liées à l'IA
*(01:35) : Les prédictions de Neil et Ray sur l'IA agentique en 2026*(20:24) : Facteurs de futures violations agentiques
*(04:37) : Discussion sur le récent rapport d'Anthropic sur le cyber-espionnage basé sur l'IA*(25:22) : L'évolution des conversations sur la cybersécurité autour de l'IA
*(09:57) : Détails importants à inclure dans les futurs rapports sur les menaces*(28:48) : Conseils pour contenir les risques liés à l'IA
*(12:30) : Pourquoi les entreprises spécialisées dans l'IA mettent-elles l'accent sur les utilisations néfastes par les attaquants ?*(32:07) : Conclusion
*(13:58) : Pourquoi les acteurs de la menace obtiennent-ils de meilleurs résultats avec l'IA qu'avec les initiatives des entreprises ?

 

Écouter


Horodatage

*(00:01) : Introduction*(16:35) : L'importance de classer les menaces selon qu'elles sont humaines ou liées à l'intelligence artificielle
*(01:35) : Les prédictions de Neil et Ray sur l'IA agentique en 2026*(19:15) : Facteurs de futures violations agentiques
*(04:05) : Discussion sur le récent rapport d'Anthropic sur le cyber-espionnage basé sur l'IA*(23:53) : L'évolution des conversations sur la cybersécurité autour de l'IA
*(09:20) : Détails importants à inclure dans les futurs rapports sur les menaces*(27:10) : Conseils pour contenir les risques liés à l'IA
*(11:40) : Pourquoi les entreprises spécialisées dans l'IA mettent l'accent sur les utilisations néfastes par les attaquants*(30:16) : Conclusion
*(13:07) : Pourquoi les acteurs de la menace obtiennent-ils de meilleurs résultats avec l'IA qu'avec les initiatives des entreprises ?

 

Autres façons d'écouter :

Dans cet épisode

Ray Canzanese
Directeur, Netskope Threat Labs

signe chevron

Ray Canzanese

Ray is the Director of Netskope Threat Labs, which specializes in cloud-focused threat research. His background is in software anti-tamper, malware detection and classification, cloud security, sequential detection, and machine learning.

Logo LinkedIn

Neil Thacker
Global Privacy & Responsable de la protection des données chez Netskope

signe chevron

Neil Thacker est un professionnel chevronné de la sécurité de l'information et un expert de la protection des données et de la vie privée qui connaît bien le GDPR de l'Union européenne.

Logo LinkedIn

Max Havey
Spécialiste principal du contenu chez Netskope

signe chevron

Max Havey

Max Havey est spécialiste principal du contenu au sein de l'équipe de communication d'entreprise de Netskope. Il est diplômé de l'école de journalisme de l'université du Missouri, où il a obtenu une licence et une maîtrise en journalisme de magazine. Max a travaillé comme rédacteur de contenu pour des startups dans les secteurs du logiciel et de l'assurance-vie, ainsi que comme rédacteur fantôme dans de nombreux secteurs.

Logo LinkedIn

Ray Canzanese

Ray is the Director of Netskope Threat Labs, which specializes in cloud-focused threat research. His background is in software anti-tamper, malware detection and classification, cloud security, sequential detection, and machine learning.

Logo LinkedIn

Neil Thacker est un professionnel chevronné de la sécurité de l'information et un expert de la protection des données et de la vie privée qui connaît bien le GDPR de l'Union européenne.

Logo LinkedIn

Max Havey

Max Havey est spécialiste principal du contenu au sein de l'équipe de communication d'entreprise de Netskope. Il est diplômé de l'école de journalisme de l'université du Missouri, où il a obtenu une licence et une maîtrise en journalisme de magazine. Max a travaillé comme rédacteur de contenu pour des startups dans les secteurs du logiciel et de l'assurance-vie, ainsi que comme rédacteur fantôme dans de nombreux secteurs.

Logo LinkedIn

Transcription de l'épisode

Ouvert à la transcription

0:00:01 Max Havey : Bonjour et bienvenue dans cette nouvelle édition de Security Visionaries, un podcast consacré au monde des cyberdonnées et des infrastructures technologiques, qui réunit des experts du monde entier et de différents domaines. Je suis votre hôte, Max Havey, et aujourd'hui nous allons faire de notre mieux pour démêler le battage médiatique de la réalité en ce qui concerne les menaces liées à l'IA et le cyberespionnage. Et avec moi, nous avons deux invités vraiment formidables qui ont tous les deux beaucoup d'idées sur ce sujet. Tout d'abord, nous recevons Ray Canzanese, directeur de Netskope Threat Labs. Ray, bienvenue dans ce programme.

0:00:29 Ray Canzanese : Merci de m'accueillir, Max. Cela fait longtemps.

0:00:32 Max Havey : C'est le cas. C'est le cas. Cela fait peut-être deux ans, alors je suis heureux de vous retrouver dans le pod et, deuxièmement, dans notre épisode Hackers, nous avons Neil Thacker, responsable mondial de la protection de la vie privée et des données chez Netskope. Bienvenue, Neil.

0:00:45 Neil Thacker : Merci, Max. Merci de m'avoir invité la dernière fois que nous étions dans les années quatre-vingt-dix. Nous sommes de retour dans les années 2020.

0:00:51 Max Havey : Je vous ai amené au présent. Cette fois-ci, nous aurons une conversation tournée vers l'avenir. Génial. Les menaces liées à l'IA dans le domaine du cyberespionnage ont récemment fait l'objet de nombreuses conversations. Il s'agit notamment d'un rapport d'Anthropic sur la première campagne de cyberespionnage orchestrée par l'IA, dont certains critiques ont noté qu'il manquait des éléments clés pour l'étayer. Mais avant de nous pencher sur cette question, je sais que Ray et Neil ont tous deux fait part de leurs réflexions sur les menaces liées à l'IA dans l'avenir de l'hameçonnage agentique et des violations de données à l'horizon 2026. Commençons donc par là. Neil, pouvez-vous nous parler de votre récente prédiction selon laquelle 2026 sera probablement la première année où l'on assistera à une violation de données due à l'IA agentique ?

0:01:35 Neil Thacker : Oui, bien sûr. Je veux dire que je suis légèrement agacé Anthropic, je l'ai souligné en 2025. J'avais prédit 2026. Mais la raison en est que j'ai l'impression que nous avons atteint un point d'inflexion en ce qui concerne l'IA dans la cybersécurité. Nous voyons de très nombreuses organisations développer et déployer des technologies d'IA, améliorer leurs capacités existantes, mais aussi les utiliser à des fins défensives. Alors bien sûr, il n'y a pas, c'était une sorte d'observation claire qu'en 2026 nous verrons une attaque de style offensif ici, et ce n'est pas quelque chose de New. Depuis de nombreuses années, nous disposons de technologies et d'outils que les attaquants utilisent pour lancer des attaques et qui, bien entendu, deviennent de plus en plus sophistiqués. Pour moi, il s'agissait donc de regarder le paysage vers lequel nous nous dirigions et de me rendre compte que cela allait bientôt arriver, et si ce n'est pas en 2025, ce sera en 2026. Mais nous le voyons, de nombreuses organisations se préparent à cette course à l'armement en matière d'IA, de défense et d'attaque, et se préparent pratiquement à ce type d'issue.

0:02:40 Max Havey : Certainement. Et Ray, je sais que votre équipe a également établi un certain nombre de prévisions à ce sujet. Comment réagissez-vous à cela et y a-t-il des prévisions de votre équipe que vous aimeriez noter concernant cette préoccupation croissante de l'âge Agentic ?

0:02:53 Ray Canzanese : Oui, je pense que, comme Neil, nous avons des prévisions des deux côtés, n'est-ce pas ? D'un côté, les attaquants utilisent la technologie pour amplifier les attaques ou les rationaliser. Les risques sont les suivants : premièrement, il devient un peu plus rapide et plus accessible de développer une attaque. Deuxièmement, il est très performant dans certains domaines. Si je voulais réaliser une fausse vidéo de vous Max essayant de convaincre quelqu'un de divulguer son mot de passe ou autre chose, ce serait assez facile à faire avec la technologie d'aujourd'hui. Nous prévoyons donc une augmentation de l'ingénierie sociale et de l'hameçonnage. De l'autre côté, lorsque les organisations adoptent davantage ces technologies et ne suivent peut-être pas les meilleures pratiques, ou qu'il y a des risques émergents auxquels personne n'a vraiment pensé, cela augmente les risques de brèches dans ce domaine également. Ainsi, lorsque nous parlons de sécurité de l'IA, il ne s'agit pas seulement de la garder hors des mains des pirates, mais aussi de s'assurer que lorsque nous l'utilisons, nous le faisons en toute sécurité et de manière responsable.

0:04:05 Max Havey : C'est une sorte d'épée à double tranchant. Il s'agit de l'aspect protection, mais aussi de l'utilisation et de la possibilité pour les gens de l'utiliser d'une manière sûre et sans qu'il y ait de fuites accidentelles. Cela étant dit, pour en revenir au rapport philanthropique, d'après vous, pourquoi ce rapport manquait-il tant des données habituelles et utiles que ce genre de rapport inclut et qui permettent à d'autres d'en tirer des leçons lorsqu'il s'agit d'une chose aussi énorme, le tout premier événement de cyberespionnage basé sur l'IA comme celui-là,

0:04:39 Ray Canzanese : Je pense que la réponse courte est que vous n'avez pas besoin de plus de détails pour le marketing, pour le marketing, vous devez parler de la puissance de votre produit et vous devez parler de votre responsabilité dans l'exercice de cette puissance. C'est donc logique d'un point de vue marketing. Si une telle situation se produit et que vous interrompez une attaque, c'est logique. Vous souhaiteriez l'expulser immédiatement. Tous ceux qui travaillent pour vous se sentiront bien, et vous aurez un tas de gens qui feront des podcasts pour en parler, qui feront du très bon marketing et qui seront peut-être même un peu plus cyniques. Je pense que si vous êtes un pionnier dans un domaine où vous avez développé une technologie assez impressionnante et que vous dites : "Hé, ce que nous avons construit ici est vraiment dangereux, alors vous ne devriez pas laisser d'autres personnes construire ce que nous avons construit parce que vous ne leur feriez pas confiance, mais vous pouvez nous faire confiance parce que vous pouvez voir que nous faisons ce qu'il faut faire". C'est donc un peu plus cynique de dire que c'est peut-être un peu plus que du marketing, c'est peut-être un peu plus intelligent de dire que peut-être d'autres entreprises devraient être autorisées à faire la même chose.

0:05:51 Max Havey : Certainement. Je pense que ce qui est intéressant, c'est qu'il y a tellement de potentiel dans le domaine de l'IA et qu'il a toujours été considéré comme une boîte noire pour beaucoup de gens, en particulier pour ceux qui sont un peu plus inquiets à l'idée de se lancer tête baissée dans ce domaine. Avez-vous une idée de l'exactitude de ce genre d'affirmation ? C'est bon pour le marketing, c'est bon pour montrer à quel point cette technologie peut être puissante, mais à quel point pensons-nous que c'est fiable pour une attaque réelle ou quelque chose comme ça ?

0:06:25 Neil Thacker : Oui, je veux dire que ce n'était pas nécessairement unique. Je veux dire que si vous regardez le style de l'attaque qui s'est produite, il s'agit du même type de schéma que de nombreux attaquants suivent depuis des années. Il ne s'agit donc pas d'une nouveauté. Ce n'est pas quelque chose d'unique. Je pense donc qu'en partageant ces informations, on se rend compte que cela s'est produit, mais qu'il n'y a rien d'extraordinaire à apprendre de ce type d'attaque de toute façon. Encore une fois, ce qui est passionnant, ce qui est unique, c'est que tout cela a été entièrement orchestré par un agent d'intelligence artificielle. L'homme a donc bien appris à agir selon ces principes. Et si vous regardez ceci, vous verrez qu'il s'agit d'un modèle très similaire. Il a procédé à la reconnaissance, à la cartographie de la surface d'attaque, à la recherche de vulnérabilités, à la collecte d'informations d'identification et à l'étape finale de la collecte de données. Nous suivons donc le même schéma depuis des années.

0:07:17 Neil Thacker : Je veux dire que ce qui serait vraiment intéressant, c'est de trouver un moyen New de faire cela sans passer par autant d'étapes, mais nous n'en sommes pas encore là en termes d'apprentissage. Alors oui, c'est un peu comme ça que je vois les choses. Encore une fois, je crois que c'est ce qui s'est passé. Je pense, encore une fois, pour répondre à la question de Ray, qu'ils nous ont donné des informations à l'adresse New? Non, il s'agissait encore une fois d'un excellent article, d'une belle histoire à raconter, ce qui, soit dit en passant, est une bonne chose. Les gens aiment les histoires et apprendre ces choses par le biais d'histoires, mais encore une fois, il manque quelques détails techniques, mais je pense que cela viendra bientôt. Nous verrons davantage d'attaques de ce type et nous verrons davantage d'informations partagées sur, encore une fois, la raison pour laquelle ces attaques sont peut-être uniques et comment elles sont apprises. Je reviens également à l'année 2016, lorsque nous avons vu ce phénomène se produire à la Defcon dans le cadre du cyber grand défi, où nous avons vu des machines entièrement autonomes se battre contre d'autres machines dans un jeu de capture du drapeau. Et c'était génial parce que pendant qu'ils trouvaient des vulnérabilités, lançaient des exploits, ils apprenaient aussi. Nous devons donc nous y préparer. C'était il y a 10 ans, d'ailleurs, nous avons vu que la théorie était possible il y a 10 ans. Nous arrivons maintenant à l'âge où ces choses vont se produire de plus en plus.

0:08:31 Ray Canzanese : Et je pense que c'est un bon point, Neil, sur le fait que nous croyons totalement qu'ils ont détecté quelque chose, et je pense que l'une des raisons est que beaucoup d'entre nous travaillant dans la cybersécurité ont utilisé ces outils pour faire exactement ce genre de choses du point de vue de l'équipe rouge. Nous savons depuis un certain temps que c'est possible. Il semble que dans ce cas, ils ont trouvé quelqu'un qui le faisait et ils ont cru qu'il le faisait avec de mauvaises intentions. C'est vrai. S'agissait-il d'un groupe chinois de PT ? Je ne sais pas. C'est vrai. Aucune preuve n'a été apportée, mais cela s'est-il produit ? Il est presque certain que oui, cela s'est produit. C'est vrai. Les questions portent donc sur les détails et non sur le concept et sur le fait de savoir s'ils ont découvert les abus et y ont mis fin.

0:09:20 Max Havey : Si d'autres attaques de ce type sont signalées à l'avenir, quels sont les détails clés que vous souhaiteriez voir figurer dans un tel rapport et qui permettraient aux gens d'en tirer de meilleurs enseignements pour l'avenir ?

0:09:34 Neil Thacker : Oui, je pense que je verrais les détails plus techniques, les détails concernant l'attaque, si elle a réussi, comment elle a réussi, quelle était la cible, quel était l'exploit, etc. Une chose que j'ai vraiment appréciée dans le rapport, c'est l'utilisation des termes New. Je ne sais pas s'ils ont déjà été utilisés dans le passé, mais l'accent a été mis sur la vitesse d'exploitation, mon expression préférée New, le tempo opérationnel de l'attaque. Il était clair qu'ils avaient identifié, une fois de plus, par le biais de la recherche, qu'il était impossible pour un humain de faire cela, et qu'il devait donc s'agir d'un agent d'intelligence artificielle. Encore une fois, la vitesse, la rapidité, l'exploitation, la capacité d'utiliser des types supplémentaires d'analyse des vulnérabilités et toutes ces choses. C'est donc ce que je chercherais à faire. À l'avenir, il y aura peut-être des détails uniques que nous pourrons commencer à déterminer, à identifier et à attribuer, ce qui est toujours difficile en termes d'attaques. Encore une fois, pouvons-nous déterminer s'il s'agit d'une attaque menée par un être humain ou par une machine ? Est-ce important ? C'est l'autre question que nous devons nous poser maintenant. Nous devons savoir s'il s'agit à nouveau d'une machine ou d'un être humain. Alors oui, c'est en quelque sorte là que nous devons commencer à chercher, c'est ce dont nous avons besoin, je suppose, dans les futurs rapports, ces moyens de mieux identifier, encore une fois, les New tactiques, techniques, et cetera, utilisées par, encore une fois, les outils autonomes.

0:10:57 Ray Canzanese : Lorsque vous rédigez un rapport comme celui-ci et que vous essayez d'aider les autres, vous devez partager suffisamment de détails pour que d'autres personnes dans la même situation que vous puissent utiliser ces informations et faire quelque chose pour y remédier. Dans ce cas, si vous pensez que c'est un groupe A TP qui a attaqué votre service, vous n'êtes pas les seuls à héberger des LLM et à permettre aux gens d'interagir avec eux. Il y a donc tout un secteur qui aimerait bien savoir quels sont ces TTP pour pouvoir commencer à chercher les mêmes sur leurs services qui bloquent certains comportements. C'est le genre de choses que vous verrez de plus en plus dans ce type de rapports.

0:11:40 Max Havey : Certainement. Je pense que vous en avez peut-être parlé un peu, Ray, mais pourquoi les entreprises d'IA semblent-elles si désireuses de suggérer que l'IA est utilisée avec succès pour des raisons malveillantes, pour ce genre d'attaques et d'autres choses de ce genre ? Pourquoi est-ce important pour eux d'en parler, surtout dans le cadre d'un récit ?

0:12:06 Ray Canzanese : Je pense que j'y ai fait allusion assez fortement au début, lorsque vous racontez une histoire, vous mettez en avant l'IA, ce truc d'IA est tellement puissant, regardez ce qu'il a été capable de faire. C'est une très bonne histoire à raconter. Et je veux dire que c'est vraiment la marque de la philanthropie. C'est vraiment une question d'image de marque pour eux de parler des risques. Parce que vous pouvez aussi, si vous parlez des risques, de la façon dont vous les atténuez et si vous vous positionnez comme le leader dans ce domaine de la réflexion sur les risques et les mesures d'atténuation, cela aide l'entreprise, cela aide l'argent à circuler dans votre direction.

0:12:48 Neil Thacker : Si vous considérez cela comme le lion et le lion tamr, n'est-ce pas ? C'est leur rôle en tant que lion. Ils disposent d'une capacité extrêmement puissante, mais ils la contrôlent totalement ou ont la capacité d'identifier quand elle est utilisée d'une certaine manière. Alors oui, c'est un peu l'analogie que je fais avec le lion et la capacité du dompteur de lion.

0:13:07 Max Havey : Je trouve cela intéressant aussi parce qu'il y a un point de données que j'ai vu du MIT récemment qui notait que 95% des initiatives d'IA d'entreprise ne parviennent pas à générer une valeur réelle discernable. Pourquoi les acteurs de la menace obtiendraient-ils de meilleurs résultats dans ce domaine ? Jouent-ils plus avec, trouvent-ils New des moyens de le briser ? A certains

0:13:26 Ray Canzanese : Dans une certaine mesure, il s'agit de trouver un problème que les LLM savent résoudre, et Neil a déjà fait remarquer qu'il s'agissait d'une attaque assez routinière en termes de choses qui ont déjà été vues à maintes reprises, n'est-ce pas ? Les anciens élèves sont très doués pour cela, n'est-ce pas ? Complétez-le automatiquement pour moi. J'aimerais que vous m'expliquiez en détail ce que je dois faire dans le cadre de cette attaque. C'est donc en partie le cas. Choisissez le bon problème pour l'outil et c'est le bon problème à associer à cet outil. Il est donc logique que vous obteniez de bons résultats. De nombreuses organisations obtiennent de bons résultats lorsqu'il s'agit d'automatiser des tâches de type programmation, ce qui est le cas ici.

0:14:07 Neil Thacker : Il s'agit d'automatiser ces tâches pour gagner en rapidité. Dans le domaine de la cybersécurité, la façon dont nous mesurons les réponses aux violations, la façon dont les organisations procèdent depuis si longtemps, c'est la rapidité avec laquelle vous pouvez réagir à cette violation pour l'atténuer, pour mettre en place un certain contrôle afin de garantir que la violation n'aboutisse pas. C'est donc plus tôt dans la chaîne d'attaque qu'il faut intervenir. En ce qui concerne l'intelligence artificielle, elle est conçue pour fonctionner de manière rapide et automatisée, tout en étant évolutive. Dans de nombreux cas, si vous examinez les cas d'utilisation de l'IA, il s'agit d'un excellent cas d'utilisation. Malheureusement, cela a un impact sur les organisations. En effet, nous avons constaté la même chose au début des attaques DDoS à grande échelle, ce genre de choses. Vous pourriez pratiquement automatiser ces scripts, ces lots à cibler les organisations le font de cette façon. Si vous aviez des humains pour faire cela, ce serait largement inefficace. Mais nous constatons aujourd'hui qu'il s'agit d'un phénomène plus avancé, qui vise les organisations en utilisant des techniques spécifiques, en ciblant l'exfiltration de données, etc. C'est vers cela que nous nous dirigeons, vers l'évolutivité de ces types d'attaques à l'ère moderne.

0:15:20 Ray Canzanese : J'aime que vous utilisiez des mots comme bots et scripts parce que nous les appelons maintenant des agents, mais c'est conceptuellement toujours la même chose. La vitesse est venue avec les bots et les scripts, mais il fallait toujours des gens pour écrire les bots et les scripts. Et je pense que ce qui nous aide ici, c'est que nous pouvons maintenant écrire ces bots et ces scripts plus rapidement et de manière ciblée pour des organisations spécifiques, car c'est ce que les LMS nous permettent de faire. C'est donc un peu d'accessibilité mélangée à la vitesse. Voilà quelqu'un qui n'avait peut-être pas le savoir-faire pour écrire tous ces scénarios lui-même ou qui n'avait pas les ressources nécessaires pour réunir une petite équipe pour le faire en peu de temps. Mais un groupe d'agents d'intelligence artificielle, beaucoup plus facile à mettre en œuvre pour accomplir cette tâche.

0:16:09 Neil Thacker : Ils peuvent donc apprendre qu'ils n'ont pas réussi cette fois-ci et recommencer une minute plus tard. Alors qu'une fois encore, du point de vue humain, il faut peut-être quelques heures ou quelques jours pour se demander pourquoi je n'ai pas réussi à obtenir un résultat, comme cela a été prouvé il y a dix ans. C'est ce qui permet à ces systèmes d'itérer très, très rapidement et de passer à autre chose. L'objectif, bien sûr, est de réussir l'attaque. Ainsi, en cas d'échec, il est possible d'itérer et de passer rapidement à autre chose afin d'obtenir de meilleurs résultats la prochaine fois.

0:16:43 Max Havey : Il est également intéressant d'entendre que vous revenez sans cesse sur l'idée que rien de tout cela n'est particulièrement New. Il s'agit de choses dont nous sommes conscients depuis un certain temps ou de techniques qui existent depuis un certain temps, et que l'IA a rendues plus accessibles. Il s'agit d'éliminer certaines barrières, faute d'un meilleur terme, pour les méchants, pour les acteurs de la menace et ce genre de choses. Pensez-vous qu'à l'avenir, il sera de plus en plus important d'être en mesure de classer ces choses entre une menace basée sur l'IA et une menace humaine ? Je pense que, comme vous l'avez souligné, Neil, c'est un peu l'argument de l'homme ou de la machine, est-ce que cela va être une classification importante à garder à l'esprit pour les professionnels de la cybersécurité qui regardent vers l'avenir comme cela ?

0:17:24 Neil Thacker : Oui, je pense que oui. Eh bien, en raison des types d'attaques que vous pouvez voir, donc une partie externe, je ne pense pas que cela importe trop, mais lorsque c'est à l'intérieur de votre organisation et que c'est votre agent d'IA, alors vous avez certainement besoin de savoir que c'est votre agent d'IA qui a fait cela. Par ailleurs, nous avons toujours traité les attaques du point de vue de l'acteur de la menace externe ou de l'acteur de la menace interne. Pour moi, il est indispensable de savoir si le problème se pose à l'intérieur de votre organisation. Nous avons toujours, lorsque nous enquêtons sur un incident interne - je suis dans ce secteur depuis 25 ans -, besoin de savoir de qui il s'agit, bien sûr, parce que cette personne est à l'intérieur de votre organisation, à l'extérieur, vous devez savoir qu'il s'agit d'une attaque et vous devez savoir comment vous défendre contre cela. Je pense donc que c'est à ce moment-là que vous devez connaître un agent interne à votre organisation. Oui, vous devez savoir si cet agent vous appartient et réagir en conséquence.

0:18:17 Ray Canzanese : Et je pense que c'est une bonne réponse parce qu'à un certain niveau, vous vous en fichez, n'est-ce pas ? Si l'initié est un agent ou l'initié en tant que personne, il fait toujours quelque chose de mal et nous voulons toujours que cela cesse. Mais je pense qu'il est important de continuer à en parler, surtout en ce moment, pour s'assurer que nous sommes tous conscients que certains de nos initiés ne sont pas nécessairement des personnes. Et lorsque vous avez des initiés qui ne sont pas des personnes, comme des non-humains qui font des choses dans votre organisation, cela se présente souvent différemment. Cette activité apparaît dans différents journaux et à différents endroits, et vous devez vous assurer que votre stratégie l'inclut et la couvre. Il ne suffit pas de dire : "Bien sûr que je m'intéresse aux initiés". Nous devons nous demander quel serait le goût de ces initiés. Et est-ce que je regarde aux bons endroits pour détecter ces initiés et ce qu'ils pourraient faire de mal ?

0:19:15 Max Havey : Certainement. En gardant cela à l'esprit, j'aimerais nous ramener à la prédiction de Neil qui a donné le coup d'envoi lorsque nous réfléchissons à ce qu'est une autre grande brèche, en plus de ce qu'Anthropic a déjà rapporté ici. Si nous devions assister à une brèche comme celle dont parle Neil, quels en seraient, selon vous, les moteurs ? S'agit-il d'un accident, d'un mauvais acteur utilisant l'agent IA ? Quel est, selon vous, le scénario le plus probable ?

0:19:43 Neil Thacker : C'est une bonne question. Je pense que nous allons assister à un mélange. Je pense que nous allons voir, dans de nombreux cas, je pense que nous voyons déjà ce retour d'information, je veux dire, j'ai des discussions avec des RSSI qui disent, oh, je ne savais pas que nous utilisions ce service. Oh, je n'avais pas réalisé que nous utilisions ce cas d'utilisation. Je n'avais pas réalisé que ce service consommait autant de données. Je pense donc que nous avons déjà reçu des commentaires de la part d'organisations qui se rendent compte qu'elles sont peut-être déjà confrontées à un problème accidentel, à un incident de sécurité, à une violation accidentelle de données ou à des données transmises à la mauvaise partie tierce. Ou encore, y a-t-il trop d'agents interconnectés aujourd'hui pour qu'ils aient perdu la trace de ces services et de leur utilisation ? J'entends souvent cette question dans les discussions que j'ai aujourd'hui : à qui appartient mon serveur MCP ?

0:20:33 Neil Thacker : Et donc je pense que nous allons certainement voir ce problème se produire. On n'en parlera pas autant que des acteurs de la menace extérieure, mais je pense que nous allons assister à un mélange intéressant de ces éléments. Donc oui, peut-être, encore une fois, pour revenir aux types de discussions sur la probabilité et l'impact, peut-être qu'il y aura une probabilité légèrement plus élevée d'un problème interne, mais quelque chose qui peut être contrôlé, alors que de la part d'un acteur de menace externe, c'est toujours probable, mais l'impact pourrait être énorme parce que maintenant nous sommes à l'intérieur, avec des données qui ont été exfiltrées de l'organisation et qui sont potentiellement perdues, qui ont fuité, qui ont entraîné des amendes, des pénalités, des sanctions, etc. pour l'organisation, ou encore, une atteinte générale à la réputation et ce défi pour les organisations de se rétablir. Donc, oui, je pense qu'il y aura un mélange à l'avenir. Mais oui, c'est quelque chose que nous devons surveiller. Nous devons nous pencher sur les mesures qui nous permettront d'aller de l'avant. Je pense que nous avons toujours dû envisager de contrer toute menace par une série de contrôles, de recommandations, etc. que nous pouvons mettre en œuvre. Et je pense que pour nous, comme pour toute organisation aujourd'hui, il faut tenir compte des deux capacités, celle de l'initié et celle de l'extérieur, de l'acteur externe.

0:21:48 Ray Canzanese : Un autre aspect dont je parle à beaucoup d'équipes de sécurité est celui des entreprises d'IA elles-mêmes. Il s'agit d'entreprises qui travaillent avec des quantités massives de données. Beaucoup de ces entreprises ont moins d'un an, moins de deux ans d'existence. Il s'agit de très jeunes entreprises qui évoluent rapidement dans l'espace New. Ils s'inquiètent de ces entreprises et de ce qu'elles font pour protéger toutes les données qu'elles détiennent. J'entends donc beaucoup de gens demander : "Comment puis-je permettre aux gens d'utiliser le service A, mais seulement pour ces cas d'utilisation très étroits ? Ou puis-je m'assurer qu'aucun de nos secrets commerciaux, de nos données clients ou de notre code source ne se retrouve dans ce service ? C'est une autre préoccupation. Par ailleurs, il convient de se demander à quoi ressemblera la violation d'une de ces entreprises d'IA. S'agira-t-il d'un vol de données ? S'agit-il d'un empoisonnement au mannequin ? Il existe de nombreuses possibilités de nuire de différentes manières si vous pénétrez dans l'une de ces entreprises que vos cibles réelles utilisent.

0:23:02 Neil Thacker : Et cela pourrait être, je veux dire, cela pourrait être le fruit le plus facile à cueillir, n'est-ce pas ? Exactement. Pour répondre à votre question, Ray, nous avons déjà vu cela. Je veux dire que j'ai examiné des organisations que quelqu'un au NECAP voulait utiliser, nous leur avons posé des questions et ils ont regardé en arrière et ils n'ont pas froncé les sourcils en ce qui concerne la cybersécurité. Qu'est-ce que c'est ? Il s'agit donc d'un problème potentiel. C'est une chose que chaque organisation doit faire. C'est un excellent point. Si vous regardez vos fournisseurs, les prestataires de vos services, comment réagissent-ils à ces types d'attaques contre leur organisation, leur infrastructure, leurs systèmes et leurs services ?

0:23:36 Ray Canzanese : Et même si vous décidez de leur faire confiance et de les utiliser, que faites-vous pour contrôler cette interaction afin de vous assurer que rien ne s'est mal passé, que rien n'est utilisé d'une manière incompatible avec l'usage que vous vouliez en faire.

0:23:53 Max Havey : Tout cela semble conduire à une évolution des conversations que les équipes de sécurité doivent avoir avec leur organisation sur ce type de questions concernant l'IA en général et l'IA agentique en particulier, à mesure qu'elle devient une partie de plus en plus importante de la façon dont les entreprises utilisent l'IA. Dans cette optique, vous en avez beaucoup parlé ici, mais en quoi cela modifie-t-il les conversations qui ont déjà lieu au sujet de l'IA dans la cybersécurité ?

0:24:24 Neil Thacker : Oui, tout à fait. Nous en parlons, n'est-ce pas ? C'est un sujet brûlant depuis quelques années, et nous sommes maintenant, comme je l'ai dit au début, à ce point de basculement, à ce point d'inflexion où les organisations réalisent maintenant, encore une fois, qu'il y a évidemment des rapports mitigés sur les organisations et qu'elles n'en voient pas l'immense valeur, mais pourtant toutes les organisations utilisent une certaine forme d'intelligence artificielle, même s'il s'agit encore une fois des capacités de Gen AI et de ce genre de choses. Mais la plupart des organisations investissent massivement dans ces services afin d'améliorer, une fois de plus, l'automatisation de leurs flux de travail et de certaines de leurs opérations commerciales. Nous constatons donc qu'il en est ainsi dans les organisations aujourd'hui, et je pense, une fois encore, que c'est la façon dont les organisations réagissent aujourd'hui. Nous avons connu la même chose avec le nuage. Nous avons connu la même chose avec les nuages. L'informatique en nuage n'a pas nécessairement envahi les organisations, mais les gens en étaient conscients. Mais il y a eu une explosion. Tout le monde utilise désormais les SAS et les services publics en nuage.

0:25:16 Neil Thacker : Et je reviens, si je peux me permettre, aux années 90, lorsque nous avons eu à nouveau Internet, au même genre de choses. Cela s'est fait lentement et tout d'un coup, tout le monde a commencé à utiliser des services sur l'internet. Nous en sommes donc à un stade où, encore une fois, je dirais qu'il y a un pourcentage élevé de personnes dans les organisations qui utilisent une forme d'IA. Alors oui, c'est ainsi que nous commençons à nous préparer. Pour revenir au point de départ, les discussions portent désormais sur la question suivante : disposons-nous d'une application, d'un inventaire de nos services d'intelligence artificielle ? Comment avons-nous examiné ces services ? Comment contrôlons-nous ? Par exemple, nous avons un inventaire commun des actifs d'IA et nous l'avons mis en correspondance avec notre inventaire des actifs de données, et nous comprenons quelles données sont envoyées à ce service d'IA, et si nous voyons une anomalie, nous devons intervenir et bloquer cette anomalie. C'est ainsi que je vois cette évolution se produire dans les organisations aujourd'hui.

0:26:09 Ray Canzanese : Et je dirais qu'un bon signe que j'ai remarqué récemment, c'est qu'évidemment nous en parlons beaucoup depuis quelques années, et j'ai reçu des questions de la part d'équipes de sécurité, qui me demandaient, par exemple, comment sécuriser mes déploiements d'IA agentique dans Bedrock ? Et je dirai, oh, cool. Pouvez-vous m'en dire plus sur la façon dont vous l'utilisez ? Et ils se disent que nous ne l'utilisons pas encore. Nous sommes en train d'y réfléchir. C'est manifestement la direction que prennent les choses. Nous l'essayons et nous voulons penser à la sécurité, et je suis impressionné. Je suis heureux. C'est ce que j'espérais, c'est-à-dire que nous en parlions suffisamment pour que les gens en soient conscients, qu'ils posent ces questions avant de s'engager trop profondément dans ce processus, de sorte qu'ils puissent y aller un peu mieux préparés qu'ils ne l'étaient peut-être lors de l'engouement initial pour les chatbots d'IA, où les gens ont commencé à les utiliser du jour au lendemain et où vous avez joué la carte de l'argent comptant dès le début.

0:27:10 Max Havey : Tout à fait. Et comme nous arrivons à la fin de notre conversation, j'aimerais que vous me disiez ce que les organisations peuvent faire pour commencer à contenir ce genre de risques tentaculaires et pour commencer à avoir ces conversations. Quel conseil donneriez-vous aux organisations qui cherchent à mieux sécuriser ce qui va continuer à être un sujet de conversation et une menace à laquelle elles doivent faire face ?

0:27:34 Neil Thacker : Je pense qu'il faut commencer par comprendre ce que vous avez. Nous commençons toujours par la cybersécurité, c'est-à-dire les services d'intelligence artificielle dont vous disposez et la manière dont ils sont connectés. Il est donc évident qu'avec les types d'attaques que nous avons vus, dans de nombreux cas, c'est la connectivité entre les agents qui est à l'origine de ces attaques. Il s'agit donc de bien comprendre ce que vous utilisez, pourquoi vous l'utilisez, d'identifier ce que fait le service, ce qui semble normal, puis d'y ajouter des contrôles. Ainsi, si un agent d'IA a accès à certains de vos environnements de non-production, comme le point de relèvement pour les tests et l'expérimentation, il n'a pas non plus accès à votre environnement de production ou ne peut pas escalader ses privilèges vers l'environnement de production.

0:28:27 Neil Thacker : Nous cherchons donc des moyens de séparation. Mais je pense que ce que nous verrons en 2026, c'est une augmentation considérable de l'utilisation par les organisations de choses telles que les passerelles d'IA pour mieux identifier l'utilisation de l'IA dans leur organisation et la façon dont les services sont connectés et pour mettre en place ces garde-fous et appliquer les niveaux appropriés de contrôles techniques autour de cela. C'est ce que je prédisais en partie : oui, nous allons assister à une violation importante qui fera la une des journaux et la réponse sera, pour l'instant, que nous avons la justification d'investir et de mettre en place ces capacités pour mieux défendre notre organisation contre ce type de violation. C'est donc ce que je m'attends à voir autour de ces risques New auxquels nous devons faire face, même s'ils peuvent être basés sur l'ancienne forme de risques et l'ancienne forme de tactiques et de techniques, nous devons répondre, je suppose, car nous devons répondre avec la technologie pour contrer à nouveau, ces directions autonomes rapides en pleine croissance également.

0:29:27 Ray Canzanese : Oui, je suis tout à fait d'accord. Tout commence par la visibilité. Lorsque vous commencez à chercher ce sur quoi vous avez de la visibilité, vous commencez souvent à découvrir où vous avez des angles morts dans votre visibilité, ce qui vous donne une bonne stratégie pour savoir où vous devez en faire plus. Et ce qu'il faut garder à l'esprit lorsque vous examinez un problème, c'est ce dangereux mélange de choses qui se produisent sur les points finaux, de choses qui se produisent dans le nuage, d'identités humaines, d'identités non humaines, de toutes ces choses qui travaillent ensemble. Vous devez donc déterminer ce que vous utilisez, commencer à le cartographier et chercher à voir où sont vos angles morts, où vous pouvez obtenir des passerelles MCP, des passerelles AI, des logs cloud, tout ce qui peut vous aider à combler ces lacunes en matière de visibilité.

0:30:16 Max Havey : Je pense que c'est un bon endroit pour nous arrêter, les gars. Neil, merci beaucoup de nous avoir rejoints. Vous aviez beaucoup de bonnes perspectives à offrir, d'autant plus que vous avez été l'un des instigateurs de cet épisode, en prédisant la première violation de données cybernétiques par l'IA agentique et pilotée par l'IA en 2026. Merci beaucoup de nous avoir rejoints.

0:30:35 Neil Thacker : Oui, bien sûr. Il n'y a pas de problème. Oui, c'était un plaisir de vous revoir, Max et Ray, et je suis sûr que nous en reparlerons en 2026.

0:30:42 Max Havey : C'est aussi presque certain. Et Ray, merci beaucoup, comme toujours, de nous avoir rejoints et d'avoir apporté votre expertise en matière de menaces. Je sais que vous avez travaillé sur de nombreux rapports sur les menaces et écrit sur de nombreuses menaces, vous avez donc offert des tonnes de perspectives intéressantes ici, et je suis sûr que vous aurez d'autres choses à dire au fur et à mesure que les choses évoluent.

0:30:55 Ray Canzanese : Oui, merci de m'accueillir, Max. J'attends avec impatience la prochaine édition.

0:30:58 Max Havey : Tout à fait. Sur ce, vous avez écouté le podcast Security Visionaries et j'ai été votre hôte, max. Si vous avez apprécié cet épisode, partagez-le avec un ami et n'oubliez pas de vous abonner aux Visionnaires de la sécurité sur votre plateforme de podcast préférée, qu'il s'agisse d'Apple Podcasts, de Spotify ou de nos vidéos New sur YouTube. Vous pouvez y consulter notre catalogue d'épisodes et découvrir les épisodes publiés sur New toutes les deux semaines, animés soit par moi, soit par mes merveilleuses co-animatrices, Emily, wear Mouth et Bailey Pop. Sur ce, nous vous donnons rendez-vous pour le prochain épisode.

Abonnez-vous à l'avenir de la transformation de la sécurité

En soumettant ce formulaire, vous acceptez nos Conditions d'utilisation et reconnaissez avoir pris connaissance de notre Déclaration de confidentialité.