0:00:01.4 Emily Wearmouth : Bonjour et bienvenue dans le podcast des visionnaires de la sécurité. Aujourd'hui, je suis accompagné d'un invité que je voulais inviter depuis un certain temps, et pas seulement parce qu'il a un excellent titre de poste, mais il a effectivement un excellent titre de poste. Mark Day est scientifique en chef pour la société de cybersécurité et de mise en réseau Netskope. Bienvenue dans l'émission, Mark.
0:00:20.1 Mark Day : Merci, Emily. C'est agréable d'être ici.
0:00:22.6 Emily Wearmouth : Avant de nous plonger dans le sujet sur lequel j'ai l'intention de vous interroger aujourd'hui, pourriez-vous nous parler un peu de vous et de votre parcours ?
0:00:29.6 Mark Day : Bien sûr. Comme vous l'avez dit, je suis scientifique en chef chez Netskope. J'ai fait mes études supérieures au MIT, où j'ai obtenu un doctorat. Je suis un expert en systèmes distribués et j'ai effectué de nombreux travaux sur les systèmes distribués au fil des ans dans diverses entreprises technologiques, Netskope étant l'entreprise actuelle.
0:00:52.4 Emily Wearmouth : Aidez-moi à comprendre. Quand je pense à la science, mon cerveau pense immédiatement aux pipettes et aux tubes à essai. Mais aidez-moi à comprendre en quoi consiste le rôle d'un scientifique en chef dans une entreprise technologique, en particulier comment travaillez-vous aux côtés d'un ingénieur en chef, d'un responsable produit en chef, d'un responsable technologique en chef ? Quelle est votre place dans ce mélange ?
0:01:09.1 Mark Day : Eh bien, mon rôle ici consiste principalement à poser de bonnes questions et à reconnaître quand j'obtiens de bonnes réponses, ou peut-être de moins bonnes réponses, et à insister pour obtenir de meilleures réponses quand c'est nécessaire. C'est pourquoi je me suis particulièrement intéressé aux infrastructures, à la plomberie, si vous voulez. J'en sais donc assez pour me méfier de tous les types de technologies qui entrent dans la construction de la solution Netskope. Je suis donc bien placé lorsque les choses tournent mal ou lorsque nous devons prendre une autre direction pour comprendre les problèmes et trouver les personnes les plus aptes à les résoudre au sein de l'organisation. Il s'agit donc en partie d'être à l'affût de toutes les nouveautés techniques étranges qui pourraient se matérialiser et qui ne sont pas encore dans le portefeuille de quelqu'un d'autre, mais aussi d'être prêt à poser des questions sans trop s'inquiéter si je pose des questions stupides. C'est là que le doctorat est utile, car je peux dire que si je ne comprends pas quelque chose, c'est probablement parce que c'est vraiment difficile ou vraiment nouveau.
0:02:25.1 Emily Wearmouth : C'est une façon très claire de... Je veux vraiment votre travail, Mark. Je vais simplement le dire. Je me rendrai au MIT. Je suis après votre travail.
(rires)
0:02:33.1 Emily Wearmouth : A ce stade, je vais vous mettre en garde sur le contenu. Si vous ne l'avez pas remarqué dans le titre de l'émission, cet épisode utilisera un gros mot. C'est un peu léger, mais si vous protégez les petites oreilles sensibles qui pourraient traîner à vos pieds pendant que vous écoutez et préparez le dîner, voici votre avertissement : nous allons utiliser au complet le mot qui est souvent abrégé en "BS". Et il y a une raison à cela, je vous le promets. Mais peut-être qu'il faut faire sortir certaines personnes de la cuisine. D'accord, l'avertissement a été dûment délivré. Mark, il y a quelques mois, vous m'avez dit que les grands modèles de langage étaient des artistes de la connerie et que, malgré cela, vous pensiez qu'ils pouvaient encore être incroyablement utiles, ce qui semble extrêmement contradictoire. Commencez donc par nous dire pourquoi vous pensez que les LLM ou les modèles d'IA sont des menteurs ?
0:03:18.2 Mark Day : C'est vrai. Il ne s'agit pas d'une idée originale. Tout ce que j'ai fait en réalité, c'est de reprendre et d'adopter un article publié qui a fait l'objet d'une remarque... Le titre de l'article était "ChatGPT Is Bullshit". Le fait est qu'il existe une notion technique de connerie en philosophie morale, qui est essentiellement utilisée pour décrire le comportement qui consiste à dire tout ce qui est nécessaire pour défendre son point de vue sans se préoccuper de savoir si c'est vrai ou non. Et c'est une chose que nous pouvons identifier. Et, vous savez, parfois c'est bien et parfois ce n'est pas bien. Mais c'est une caractéristique de ces grands modèles de langage qui suscitent beaucoup d'attention dans le domaine de l'IA, car fondamentalement, le fonctionnement d'un grand modèle de langage consiste à construire des choses qui sont plausibles et qui sonnent bien sur la base de ce qu'il a été formé, mais il n'a aucune notion de ce qui est vrai et de ce qui n'est pas vrai. Ainsi, dans un sens quasi-définitif, les grands modèles de langage sont intrinsèquement des trompeurs. Ils ne savent pas comment faire autrement.
0:04:33.0 Emily Wearmouth : Est-ce la raison pour laquelle nous avons des problèmes d'hallucinations dans les systèmes d'IA ?
0:04:37.8 Mark Day : Oui, l'hallucination est la façon polie de parler de conneries.
[rires].
0:04:42.2 Mark Day : Je pense donc que l'un des services rendus par cet article était de souligner que lorsque les chercheurs en IA parlaient du fait que leurs modèles avaient parfois des hallucinations ou qu'il y avait un problème avec les hallucinations et qu'il fallait poursuivre les recherches à ce sujet, ce qu'ils contournaient en fait, c'était le fait que leurs modèles racontaient des conneries. Et comme je l'ai dit, bien qu'il y ait certainement des désaccords à ce sujet au sein de la communauté de l'IA, je pense qu'il y a de bonnes raisons de penser qu'étant donné la manière dont les grands modèles de langage fonctionnent, c'est-à-dire qu'ils produisent statistiquement des phrases probables plutôt que de faire référence à une sorte de corpus de connaissances, je pense qu'ils sont intrinsèquement trompeurs. Ce qui est frappant, c'est la fréquence à laquelle ils parviennent à raconter quelque chose qui se trouve être vrai, contrairement au fait que nous remarquons parfois qu'il s'agit d'une connerie.
0:05:41.5 Emily Wearmouth : C'est fascinant. D'accord, je ne suis pas un fan des contre-vérités, alors convainquez-moi, comment quelque chose qui ignore intrinsèquement les concepts de vérité peut-il avoir de la valeur ? Nous avons besoin d'une relation de confiance avec les systèmes que nous utilisons. Alors, comment pouvons-nous établir une confiance avec ces systèmes dont nous savons qu'ils nous mentent ?
0:06:00.0 Mark Day : Le problème n'est pas nécessairement qu'ils cherchent à nous mentir ou qu'ils mentent 100% du temps. Je pense qu'une autre métaphore utile que certains utilisent pour l'IA générative pour les grands modèles de langage est celle de l'interne en tant que service. Cela illustre bien l'idée que vous venez d'embaucher un stagiaire qui connaît beaucoup de choses, mais qui ne comprend pas vraiment le fonctionnement de votre organisation, ce qui vous importe ou la façon dont certains aspects du monde sont assemblés. Ils peuvent donc commettre des erreurs très stupides. Je pense que l'IA possède une qualité similaire : vous pouvez lui poser un certain type de question et elle vous répondra immédiatement de manière fabuleuse. Et vous direz : "Je ne sais pas comment j'ai pu vivre sans cela". Ensuite, vous pouvez lui poser une question similaire et il vous propose quelque chose que vous savez être absolument faux. Et vous vous dites que c'était terrible. Et à part savoir de quoi vous parlez, je ne sais pas si vous avez un moyen de vous protéger contre cela.
0:07:11.7 Emily Wearmouth : Nos auditeurs ont tendance à être des leaders dans le domaine de la sécurité, des données et de la technologie. Quel processus de réflexion conseilleriez-vous aux gens de suivre lorsqu'ils réfléchissent aux tâches qu'ils confieraient à ce type de systèmes ?
0:07:24.9 Mark Day : Vous voulez comprendre les idées reçues sur un sujet particulier que vous ne connaissez pas. C'est une tâche formidable pour une IA. Si vous souhaitez qu'il résume un large corpus de documents que vous n'avez pas le temps de lire et que vous êtes d'accord pour qu'il y ait de petites erreurs en cours de route, c'est une autre tâche formidable. Je pense que si vous vous adressez à une IA et que vous lui demandez quel sera le produit leader du marché dans cinq ans, c'est absurde, n'est-ce pas ? Vous n'obtiendrez pas ce type d'informations. Et je pense que même en posant des questions, vous savez, j'ai récemment posé une question technique assez spécifique. Je cherchais des scénarios correspondant à un problème que j'essayais d'expliquer à un client. J'ai spécifié le scénario avec beaucoup de soin et l'IA n'a cessé de me donner des réponses que je pensais avoir exclues. Et c'est l'un des domaines où, si je n'avais pas eu une connaissance approfondie de cet espace, j'aurais été tenté de copier-coller ce qu'il disait, de le mettre sur mes diapositives et de présenter ensuite les déchets au client.
0:08:40.4 Emily Wearmouth : Il y a donc beaucoup d'IA dans les systèmes de Netskope. Quelles sont les tâches que vous ou l'équipe de Netskope confiez à l'IA ? Et pourquoi vous sentez-vous à l'aise avec le fait qu'il fasse ces choses ?
0:08:51.2 Mark Day : Ce qui importe ici, c'est de faire la distinction entre les différentes saveurs ou les différents genres d'IA. Les grands modèles de langage, le type ChatGPT, retiennent toute l'attention parce qu'il est très excitant d'interagir avec une entité d'apparence humaine, de lui poser des questions, etc. Or, l'IA qui apporte une valeur ajoutée à la plateforme Netskope n'est pratiquement pas de ce type. Les modèles d'apprentissage automatique sont beaucoup plus courants dans l'utilisation de l'IA. Il ne s'agit pas de grands modèles de langage et ils accomplissent des tâches qui, lorsqu'elles sont effectuées par des humains, requièrent un certain degré d'intelligence. Ainsi, par exemple, il existe un modèle dans Netskope qui nous permet d'identifier les éléments qui sont très probablement des passeports ou des permis de conduire. C'est le genre de choses que vous pouvez accomplir en obtenant un large corpus d'images de passeports et de permis de conduire et en apprenant à la machine à reconnaître ce genre de choses. Et il s'acquitte de cette tâche à peu près aussi bien qu'une personne. Mais cela n'a rien à voir avec le fait que je devrais m'inquiéter de la réponse que me donne cette IA parce qu'elle me raconte peut-être des conneries. C'est l'une des raisons pour lesquelles, d'une manière générale, la plateforme Netskope comporte une bonne part d'IA, mais je ne suis pas très préoccupé par le problème de la connerie.
0:10:31.4 Emily Wearmouth : Le site Gen AI était le grand favori l'année dernière, et cette année, nous l'avons tous abandonné. Nous sommes tous venus en masse pour voir un nouveau groupe en ville, Agentic AI. La dernière fois que nous en avons parlé, l'IA agentique n'était pas encore à l'ordre du jour. Comment pourrions-nous envisager la manière dont nous utilisons l'IA agentique si nous sommes d'accord pour dire qu'ils nous racontent aussi des bobards ? La situation est-elle différente ou la même prudence s'applique-t-elle ? Il y a une grande différence entre génératif et agentique. Comment cette théorie de merde s'applique-t-elle ?
0:11:01.0 Mark Day : Je pense, tout d'abord, que le jury n'est pas encore parvenu à déterminer si l'agentique est significativement différent de Gen AI. Je suis plus enclin à la théorie selon laquelle Gen AI nous apprend en fait quelque chose d'intéressant sur la nature du langage et du monde et sur le fait que ces processus relativement simples en apparence peuvent faire des choses extrêmement non triviales. Agentic me semble mélanger les idées de workflow et d'interaction. Je ne sais pas si j'ai le même sentiment qu'il s'agit d'un monde nouveau. Je suppose que je peux encore être convaincu, mais à ce stade, je me dis plutôt que l'IA, après avoir connu un grand moment de gloire, est maintenant revenue à son mode habituel, dans lequel un groupe de personnes se promènent en disant des choses exagérées sans vraiment avoir grand-chose à montrer pour cela.
0:11:58.5 Emily Wearmouth : Vous pensez donc qu'il s'agit simplement d'un nouveau moyen marketing de susciter l'enthousiasme de tous pour quelque chose de nouveau ? [rires].
0:12:04.0 Mark Day : Oui, je pense qu'à l'heure actuelle, le jury n'a pas encore tranché. Je suis prêt à être convaincu, mais je ne le suis pas encore.
0:12:09.9 Emily Wearmouth : Intéressant. Maintenant, en raison de votre génial titre du poste, permettez-moi de vous demander si j'ai fait une brève incursion dans le monde de la science-fiction. Qu'est-ce qui vous enthousiasme le plus, idéalement dans le domaine de l'intelligence artificielle, mais peut-être pas, qui reste à venir ?
0:12:26.2 Mark Day : Je pense que la chose la plus excitante que je n'ai pas encore vue et que je pense que nous verrons à un moment donné, mais peut-être pas de mon vivant, c'est une forme d'art nouveau qui soit clairement ancrée dans l'IA. Je pense que l'analogie que je ferais ici est celle du fonctionnement des films. Au départ, les films étaient une nouveauté et les gens les utilisaient ensuite pour visionner de petites séquences. Ensuite, les gens les ont utilisés dans une sorte de mode d'imitation, en filmant des pièces de théâtre ou les premiers films sont très influencés par ce qui se passait au théâtre. Et puis il y a un moment où leur propre vocabulaire se développe et par la suite il y a des œuvres cinématographiques qui sont des chefs-d'œuvre reconnaissables dans une dimension ou une autre. Je pense que nous en sommes au stade de la nouveauté et que les gens l'utilisent pour se distraire. Et on pourrait dire que certaines des choses que les gens font avec l'art de l'IA actuel, où vous générez une image que vous aimez, qui est tout à fait dans le mode imitatif, nous ne sommes pas encore en mesure de conceptualiser même ce que serait l'équivalent de Citizen Kane. Nous n'en sommes certainement pas encore à imaginer une œuvre comme The Clock de Christian Marclay. Mais il me semble que l'interaction entre l'homme et l'IA finira par donner naissance à des œuvres d'art qui seront, d'une certaine manière, analogues.
0:14:09.7 Emily Wearmouth : Quand j'étais à l'université, je vivais avec quelqu'un qui faisait des études d'histoire de l'art, et je me souviens qu'elle se cassait la tête sur des tas de dissertations sur la signification de l'art. Cet objet est-il de l'art ? Cet objet est-il un objet d'art ? Qu'est-ce que l'art ? Qu'est-ce que l'artisanat ? Vous allez ouvrir un tout nouveau type de cours que cette pauvre fille devra suivre la prochaine fois. Ne peut être créé que par un être humain. [chuckle]
0:14:29.6 Mark Day : Oh, absolument. Absolument. Je pense que la question intéressante n'est pas tant de savoir si une machine peut créer de l'art. Mais je pense qu'une combinaison machine-homme va faire quelque chose de très intéressant.
0:14:42.5 Emily Wearmouth : Je sais que mon fils est très enthousiaste à l'idée que l'IA lui permettra à l'avenir d'être Harry Potter sans avoir à passer d'auditions ou à voir sa vie ruinée par la célébrité. Nous pourrions donc tous nous en réjouir. [rires].
0:14:52.7 Mark Day : Et voilà. Exactement.
0:14:54.9 Emily Wearmouth : Génial. Mark, y a-t-il autre chose que vous souhaitiez dire à nos auditeurs lorsqu'ils réfléchiront à l'IA dans les mois à venir ?
0:15:01.5 Mark Day : Je pense que le mot " connerie " est probablement la chose la plus importante à leur laisser.
0:15:06.7 Emily Wearmouth : [rires] Nous ne voulions pas arriver à la fin du podcast et ne pas jurer une dernière fois. Je vous remercie de votre attention.
0:15:11.5 Mark Day : Et voilà.
0:15:12.0 Emily Wearmouth : Merci d'avoir fait de cet épisode le plus grossier de tous les temps. Je pense que nous l'avons fait avec un aplomb érudit et beaucoup de gravité. Merci beaucoup.
0:15:21.2 Mark Day : Merci, Emily.
0:15:22.8 Emily Wearmouth : Vous avez écouté le Podcast des Visionnaires de la Sécurité et je suis votre hôte, Emily Wearmouth. Si vous avez apprécié cet épisode, n'hésitez pas à le partager, mais assurez-vous également de nous suivre sur votre plateforme de podcast préférée afin de ne jamais manquer un épisode à l'avenir. Nous vous retrouverons la prochaine fois.