Les applications d'IA, telles que ChatGPT, Grammarly et Google Bard, gagnent rapidement en popularité dans les entreprises. Toutefois, leur utilisation comporte le risque de partager accidentellement des informations sensibles. Les données sensibles les plus fréquemment partagées sur ChatGPT, la principale application d'intelligence artificielle, sont le code source. En moyenne, une organisation constate 183 incidents de publication de code source sur ChatGPT pour 10 000 utilisateurs par mois. Ce rapport examine comment les organisations équilibrent les avantages des outils d'IA tout en gérant les risques associés, en mettant en évidence une stratégie de plus en plus populaire qui implique la DLP et le coaching interactif des utilisateurs.