Due volte leader nel Quadrante Magico di Gartner® per le piattaforme SASE. Scarica il Report

chiudere
chiudere
La tua rete di domani
La tua rete di domani
Pianifica il tuo percorso verso una rete più veloce, sicura e resiliente, progettata per le applicazioni e gli utenti che supporti.
Experience Netskope
Prova direttamente la piattaforma Netskope
Ecco la tua occasione per sperimentare in prima persona la piattaforma single-cloud di Netskope One. Iscriviti a laboratori pratici e a ritmo autonomo, unisciti a noi per dimostrazioni mensili di prodotti dal vivo, fai un test drive gratuito di Netskope Private Access o partecipa a workshop dal vivo guidati da istruttori.
Un leader in SSE. Ora è un leader nel settore SASE a singolo fornitore.
Netskope è riconosciuto come Leader Più Lontano in Visione sia per le piattaforme SSE che SASE
2 volte leader nel Quadrante Magico di Gartner® per piattaforme SASE
Una piattaforma unificata costruita per il tuo percorso
Securing Generative AI for Dummies
Securing Generative AI for Dummies
Scopri come la tua organizzazione può bilanciare il potenziale innovativo dell'AI generativa con pratiche solide di sicurezza dei dati.
eBook sulla Modern Data Loss Prevention (DLP) for Dummies
Modern Data Loss Prevention (DLP) for Dummies
Ricevi consigli e trucchi per passare a un DLP fornito dal cloud.
Modern SD-WAN for SASE Dummies Book
Modern SD-WAN for SASE Dummies
Smettila di inseguire la tua architettura di rete
Comprendere dove risiede il rischio
Advanced Analytics trasforma il modo in cui i team di operazioni di sicurezza applicano insight basati sui dati per implementare policy migliori. Con l'Advanced Analytics, puoi identificare tendenze, concentrarti sulle aree di interesse e utilizzare i dati per agire.
Supporto tecnico Netskope
Supporto tecnico Netskope
I nostri ingegneri di supporto qualificati sono dislocati in tutto il mondo e possiedono competenze diversificate in sicurezza cloud, networking, virtualizzazione, content delivery e sviluppo software, garantendo un'assistenza tecnica tempestiva e di qualità.
Video Netskope
Formazione Netskope
La formazione Netskope ti aiuterà a diventare un esperto di sicurezza cloud. Siamo qui per aiutarti a proteggere il tuo percorso di trasformazione digitale e a sfruttare al meglio le tue applicazioni cloud, web e private.

Questo rapporto descrive l'ascesa dell'adozione dell'IA Generativa (GenAI), segnalando un significativo aumento dell'uso e del volume di dati nell'ultimo anno. Sebbene la GenAI offra molti vantaggi, introduce anche rischi per la sicurezza dei dati, principalmente attraverso il shadow IT e la fuga di informazioni sensibili; tuttavia, le organizzazioni possono mitigare questi rischi implementando controlli robusti, come blocchi, DLP e coaching utente in tempo reale.

19 minuti di lettura

Introduzione collegamento collegamento

Il Rapporto 2025 sul Cloud e le Minacce sull'IA Generativa mette in luce la crescente adozione della genAI, il rischio crescente rappresentato dalla genAI e le strategie adottate dalle organizzazioni per ridurre tale rischio. Quando abbiamo pubblicato per la prima volta un Generative AI Cloud and Threat Report nel 2023, la genAI era ancora una tecnologia nascente praticamente sinonimo di ChatGPT. Il recentemente rilasciato Bard di Google (ora Gemini) ha aggiunto rapidamente utenti, ma è stato lontano dall'aver sfidato il dominio di ChatGPT. Solo 1 utente aziendale su 100 utilizzava app GenAI. Arriviamo al 2025: quasi 1 utente enterprise su 20 utilizza app genAI, e ancora di più utilizza indirettamente genAI o contribuisce con dati per addestrare modelli di IA. Netskope sta attualmente monitorando l'uso di 317 app genAI distinte nella nostra base di oltre 3.500 clienti.

Questo rapporto mira a fornire una resoconto basata sui dati delle principali tendenze della generazione artificiale, evidenziando adozione, rischio e riduzione del rischio. Inizia esaminando quanto la genAI sia diventata pervasiva, evidenzia i rischi dati legati alla sua adozione e analizza i diversi tipi di controlli che le organizzazioni utilizzano per ridurre il rischio. Data la tempistica di questo rapporto – pochi mesi dopo il rilascio di DeepSeek-V3 che ha fatto scalpore riguardo ai costi e all'efficienza riportati – include anche uno studio di caso su DeepSeek. Il caso di studio illustra cosa succede quando viene rilasciato uno strumento genAI New e intrigante e mette in evidenza le migliori pratiche per ridurre i rischi associati.

Il resto del rapporto fornisce un'analisi più approfondita dei seguenti argomenti:

  • GenAI rappresenta un rischio crescente per la sicurezza dei dati: la quantità di dati inviati alle app genAI tramite prompt e caricamenti è aumentata di oltre 30 volte nell'ultimo anno, incrementando il volume di esposizione di dati sensibili, in particolare codice sorgente, dati regolamentati, proprietà intellettuale e segreti.
  • La GenAI è ovunque: Mentre la maggior parte delle organizzazioni (90%) utilizza app genAI, ancora di più (98%) utilizza app che incorporano funzionalità genAI. Sebbene le app genAI siano utilizzate da una popolazione relativamente piccola (4,9% degli utenti), la maggior parte utilizza app che incorporano funzionalità genAI (75% degli utenti).
  • GenAI è IT ombra: La maggior parte dell'uso di GenAI nelle aziende (72%) è shadow IT, guidato da individui che utilizzano account personali per accedere alle app GenAI.
    La riduzione del rischio GenAI è possibile: il blocco, la prevenzione della perdita di dati (DLP) e il coaching utente in tempo reale sono tra i controlli più popolari per ridurre il rischio GenAI.

 

Rischi dei dati dell'intelligenza artificiale generativa collegamento collegamento

La sicurezza dei dati è il rischio principale che le organizzazioni affrontano quando i loro utenti adottano app genAI. Questo rischio deriva da due dei casi d'uso più diffusi della genAI nelle imprese:

  • Riassunto: Le app GenAI eccellono nel riassumere documenti grandi, grandi dataset e codice sorgente, generando il rischio che le persone inviino dati sensibili alle app genAI per la sintesi.
  • Generazione: Le app GenAI eccellono nella generazione di testo, immagini, video e codice sorgente, creando il rischio che chi lavora su progetti sensibili passi dati sensibili alle app GenAI per generare o migliorare contenuti.

La principale fonte dei rischi dati legati al loro utilizzo è che i casi d'uso di sintesi e generazione richiedono all'utente di inviare dati alle app genAI per fornire valore. A complicare questi rischi ci sono fattori aggiuntivi, come il numero di app sul mercato e la proliferazione di app genAI come shadow IT all'interno dell'azienda, che tratteremo più in dettaglio più avanti in questo rapporto. Le organizzazioni che utilizzano Netskope per proteggere i propri dati sensibili sono tipicamente preoccupate di quattro diversi tipi di dati sensibili che fluiscono nelle app genAI:

  • Proprietà intellettuale: La proprietà intellettuale viene trapelata alle app genAI quando gli utenti cercano di analizzare liste di clienti, contratti e altri documenti contenenti segreti commerciali o dati riservati che un'organizzazione desidera proteggere.
  • Password e chiavi: password e chiavi vengono spesso divulgate alle app genAI quando vengono incorporate in frammenti di codice.
  • Dati regolamentati: i dati regolamentati includono dati personali, sanitari e finanziari altamente sensibili e vengono spesso divulgati alle app genAI nei settori che lavorano con tali dati, in particolare nei servizi sanitari e finanziari.
  • Codice sorgente: un caso d'uso comune per le app genAI è quello di aiutare a riassumere, generare o modificare il codice sorgente, portando gli utenti a divulgare inavvertitamente codice sorgente sensibile ad app non approvate.

La figura seguente mostra con quale frequenza questi cinque tipi di dati vengono inviati alle app genAI in violazione della politica dell'organizzazione, con il codice sorgente che rappresenta quasi la metà di tutte le violazioni, seguito da dati regolamentati, proprietà intellettuale, password e chiavi. Il resto di questo rapporto si rivolge ai leader della sicurezza nelle organizzazioni che si occupano di tali dati sensibili. Come può un'organizzazione proteggere i propri dati più sensibili da esposizioni indesiderate, consentendo al contempo agli utenti di sfruttare le app genAI?

Cloud and Threat Report - Generative AI 2025 - Tipo di violazioni delle policy sui dati per le app genAI

 

Intelligenza artificiale generativa ovunque collegamento collegamento

L'IA generativa è ovunque. Nel 2022, la domanda principale delle organizzazioni era se i benefici di consentire ChatGPT superassero i rischi. Oggi, Netskope monitora le app di 317 generAI (317 genIng), ognuna delle quali solleva una serie di domande leggermente più sfumate: quali app dovremmo permettere e quali controlli adottare per mitigare i rischi di sicurezza dei dati di queste app? La figura seguente suddivide la percentuale di organizzazioni che utilizzano ciascuna delle prime 10 app di generIA, sottolineando che la maggior parte delle organizzazioni ha deciso di consentire più app di generIA.

Report su cloud e minacce - Generative AI 2025 - Le app genAI più popolari in base alla percentuale di organizzazioni che le utilizzano

La figura seguente mostra la popolarità delle stesse 10 app nell'ultimo anno, illustrando il panorama dell'intelligenza artificiale in rapida evoluzione e quante organizzazioni stiano attivamente prendendo tali decisioni. Anche applicazioni generalmente considerate onnipresenti, come ChatGPT, vengono introdotte per la prima volta in alcune organizzazioni. Le novità come Microsoft 365 Copilot si trovano attualmente in una fase di rapida adozione, simile a quanto visto per Microsoft Copilot all'inizio del 2024. Altri, come Google Gemini, Anthropic Claude, GitHub Copilot e Gamma, vengono gradualmente introdotti nelle New organizzazioni. Google Gemini sta lentamente colmando il divario con ChatGPT.

Cloud and Threat Report - Generative AI 2025 - App più popolari per percentuale di organizzazioni

Oltre alle decisioni che le organizzazioni devono prendere riguardo a centinaia di app genAI, devono anche considerare le centinaia di app aggiuntive che ora offrono funzionalità basate su genAI. Esempi di tali app includono:

  • Con piacere: Una piattaforma di customer experience che utilizza l'IA per semplificare la comunicazione con il cliente.
  • Insider: Una piattaforma di gestione della crescita che utilizza l'IA per analizzare i dati dei clienti e ottimizzare messaggi dettagliati.
  • Lattice: software per le risorse umane che utilizza l'intelligenza artificiale per riassumere i dati dei dipendenti, offrire assistenza nella scrittura e creare video di onboarding personalizzati per New assunti.
  • LinkedIn: un social network che utilizza genAI per aiutare i propri utenti nella creazione di contenuti (post, profili, descrizioni di lavoro, ecc.) e sfrutta i dati degli utenti per addestrare New modelli.
  • Moveworks: una piattaforma di supporto IT che utilizza l'intelligenza artificiale per l'automazione delle attività, il recupero delle informazioni, il supporto multilingue e l'ottimizzazione del flusso di lavoro basata sull'intelligenza artificiale nei sistemi aziendali.

La figura seguente mostra che la maggior parte delle organizzazioni utilizza oggi GenAI in qualche modo.

  • Il 90% delle organizzazioni ha utenti che accedono direttamente ad app genAI come ChatGPT, Google Gemini e GitHub Copilot.
  • Il 98% delle organizzazioni ha gli utenti che accedono ad app che offrono funzionalità basate su GenAI, come Gladly, Insider, Lattice, LinkedIn e Moveworks.

Cloud and Threat Report - Generative AI 2025 - Percentuale di organizzazioni

A livello di utente, queste differenze sono ancora più evidenti. Sebbene la maggior parte delle organizzazioni utilizzi direttamente le app GenAI, la popolazione di utenti all'interno di queste organizzazioni è ancora relativamente piccola (4,9% degli utenti). D'altra parte, le app che incorporano funzionalità basate su GenAI sono molto più comuni (75% degli utenti).

Cloud and Threat Report - Generative AI 2025 - Percentuale media di utenti

Lo scopo delle due cifre precedenti è sottolineare che l'uso della genAI nelle imprese è ancora più diffuso di quanto possa sembrare a prima vista. Le app che incorporano indirettamente funzionalità genAI comportano gli stessi rischi delle app genAI. Per fornire una visibilità completa del rischio dell'IA generativa, Netskope fornisce il Cloud Confidence Index, che monitora questi e molti altri attributi per oltre 82.000 app cloud.

 

L'IA generativa in ascesa collegamento collegamento

L'adozione dell'intelligenza artificiale generativa nelle aziende è in aumento, secondo diversi parametri. Tuttavia, nessuno è importante dal punto di vista della sicurezza dei dati quanto la quantità di dati inviati alle app genAI: ogni post o caricamento è un'opportunità per l'esposizione dei dati. Questa sezione evidenzia che la quantità di dati inviati alle app genAI è aumentata di oltre 30 volte nell'ultimo anno. Si tratta di un numero di post e caricamenti 30 volte superiore e di 30 volte superiore le possibilità di esposizione di dati sensibili rispetto a un anno fa. Inoltre, prevediamo che il volume di dati che confluisce nelle app genAI continuerà ad aumentare a un ritmo simile per tutto il 2025.

La crescita della quantità di dati inviati alle app genAI supera di gran lunga l'aumento del numero di utenti genAI e del numero di app genAI. Sebbene la base utenti delle app genAI rimarrà relativamente piccola per il prossimo futuro, i rischi dati aumenteranno drasticamente man mano che la quantità di utilizzo di genAI tra quella popolazione aumenterà. Il resto di questa sezione offre approfondimenti più dettagliati sull'aumento del volume di dati, del numero di utenti e del numero di app osservati nell'ultimo anno.

Volume di dati

Sebbene la popolazione di utenti genAI sia piuttosto piccola rispetto al totale delle aziende, la quantità di dati che questi utenti inviano alle app genAI sta aumentando rapidamente. Nell'ultimo anno, la quantità media di dati inviati alle app genAI ogni mese (principalmente tramite prompt e upload) è aumentata di oltre 30 volte, passando da soli 250 MB al mese a 7,7 GB. Il 25% delle organizzazioni più ricche ha registrato un aumento simile, passando da oltre 790 MB al mese a più di 20 GB al mese. L'aumento rapido del volume di dati inviati alle app genAI incrementa significativamente il rischio per la sicurezza dei dati. Più dati significa più possibilità che informazioni sensibili vengano esposte o gestite male da queste app. Prevediamo di vedere in media più di 15 GB inviati alle app genAI ogni mese entro la fine del 2025.

Report su cloud e minacce - Generative AI 2025 - Dati inviati alle app genAI per volume di dati mediano dell'organizzazione con area ombreggiata che mostra il 1° e il 3° quartile

Conteggio utenti

Sebbene la maggior parte delle organizzazioni utilizzi genAI, una piccola ma in continua crescita percentuale di utenti utilizza attivamente le app genAI. Il numero di persone che utilizzano app genAI in azienda è quasi raddoppiato nell'ultimo anno, con una media del 4,9% delle persone in ogni organizzazione che utilizza app genAI, come mostrato nella figura seguente. L'uso attivo nel contesto della genAI significa inviare messaggi ai chatbot o interagire in modo significativo con l'app. Il 25% delle organizzazioni più importanti ha almeno il 17% della propria popolazione di utenti che utilizza attivamente app genAI, mentre il 10% più importante ha più di un terzo (35%) dei propri utenti che utilizza attivamente app genAI. Ci aspettiamo che questa tendenza continui per tutto il 2025.

Cloud and Threat Report - Generative AI 2025 - Percentuale mediana di utenti GenAI al mese, con l'area ombreggiata che mostra il 1° e il 3° quartili

Numero di app

Il numero di app genAI utilizzate da ogni organizzazione continua a crescere gradualmente, e ora ci sono quasi sei diverse app genAI in uso. Il 25% delle organizzazioni più ricche usa almeno 13 app, e l'1% più alto (non mostrato nella foto) ne usa almeno 40. Poiché Netskope monitora in totale 317 app AI distinte e gli investimenti aggressivi nelle startup di IA continuano, ci aspettiamo che il numero di app utilizzate da ogni organizzazione continui a crescere durante il 2025. L'aumento del numero di app sottolinea l'importanza di implementare controlli per limitare i rischi associati a New app. Più avanti in questo rapporto, forniamo uno studio di caso dettagliato su DeepSeek-R1 per mostrare come varie organizzazioni hanno risposto durante la rapida adozione del chatbot New .

Report su cloud e minacce - Generative AI 2025 - Mediana delle app GenAI per organizzazione con area ombreggiata che mostra il 1° e il 3° quartile

 

IT Ombra/IA Ombra collegamento collegamento

L'adozione delle app GenAI nelle aziende ha seguito il modello tipico dei New servizi cloud: singoli utenti utilizzano account personali per accedere all'app. Il risultato è che la maggior parte delle applicazioni genAI utilizzate in azienda può essere classificata come shadow IT, un termine utilizzato per descrivere soluzioni utilizzate senza la conoscenza o l'approvazione del reparto IT. Un New termine, "ombra AI", è stato coniato appositamente per il caso speciale delle soluzioni di intelligenza artificiale. Il termine "ombra" in shadow IT e shadow AI intende evocare l'idea che le app siano nascoste, non ufficiali e operino al di fuori dei processi standard. Anche oggi, a più di due anni dal lancio di ChatGPT che ha dato il via alla mania di genAI, la maggior parte (72%) degli utenti di genAI continua a utilizzare account personali per accedere a ChatGPT, Google Gemini, Grammarly e altre popolari app di genAI al lavoro.

La figura seguente mostra quante persone hanno utilizzato account genAI personali al lavoro nell'ultimo anno. Questa percentuale è progressivamente diminuita dall'82% di un anno fa al 72% di oggi. Sebbene si tratti di una tendenza incoraggiante, c'è ancora molta strada da fare prima che la maggior parte degli utenti passi ad account gestiti dalla propria organizzazione. Al ritmo attuale, la maggior parte degli utenti continuerà a utilizzare account personali fino al 2026. Una piccola percentuale di utenti (5,4%) utilizza una combinazione di account personali e account gestiti dall'organizzazione, il che indica che anche nelle organizzazioni in cui sono presenti app gestite dall'azienda, molti utenti utilizzano ancora account personali.

Report su cloud e minacce - Generative AI 2025 - Analisi dell'utilizzo di GenAI tra account personali e aziendali

Poiché la maggior parte degli utenti genAI utilizza account personali, la distribuzione dei dati Le violazioni della politica per gli account personali non differiscono sostanzialmente dalla distribuzione più ampia. La figura seguente mostra la distribuzione, con le violazioni del codice sorgente come le più comuni, seguite da dati regolamentati, proprietà intellettuale e password e chiavi.

Cloud and Threat Report - Generative AI 2025 - Tipo di violazioni delle policy sui dati per le app personali genAI

 

DeepSeek: uno studio di caso sull'adozione precoce dell'intelligenza artificiale generativa collegamento collegamento

Il 20 gennaio 2025, l'azienda cinese DeepSeek ha rilasciato il suo primo chatbot basato sul modello DeepSeek-R1. DeepSeek afferma di aver addestrato il modello a costi significativamente inferiori rispetto a OpenAI-o1 e con una potenza di calcolo sostanzialmente inferiore rispetto a Llama-3.1. Queste affermazioni sollevarono interrogativi sul fatto che ora esistesse una barriera d'ingresso più bassa nel campo della genAI, se DeepSeek-R1 avrebbe accelerato l'innovazione della generAI e se DeepSeek-R1 avrebbe sconvolto il panorama competitivo. Queste domande hanno portato a una significativa copertura mediatica e hanno suscitato l'interesse degli appassionati di genAI in tutto il mondo.

La figura seguente mostra la percentuale di organizzazioni in cui le persone hanno usato o tentato di usare DeepSeek nelle settimane successive al rilascio di DeepSeek-R1. Al suo apice, il 91% delle organizzazioni nel mondo aveva utenti che cercavano di accedere a DeepSeek, con il 75% che bloccava tutti gli accessi, l'8% che utilizzava una politica di controllo accessibile granulare e l'8% che permetteva tutti gli accessi. Quel 75% delle organizzazioni che bloccava l'accesso aveva una politica preventiva per bloccare le app genAI che l'organizzazione di sicurezza non aveva approvato. La Preemptive Block Policy ha mitigato con successo i rischi di sicurezza dei dati per New utenti che provano DeepSeek. Nelle settimane successive, l'interesse è diminuito e la percentuale di organizzazioni con utenti DeepSeek è diminuita settimana dopo settimana.

Report su cloud e minacce - AI generativa 2025 - Percentuale di organizzazioni con utenti DeepSeek a settimana

La figura seguente mostra una visione ancora più dettagliata, osservando il numero giornaliero di utenti sulla piattaforma e suddividendo chi è stato bloccato e consentito. Al picco, lo 0,16% degli utenti nell'organizzazione media ha tentato di usare DeepSeek ed è stato bloccato, mentre lo 0,002% degli utenti era ammesso. Dopo il picco iniziale, il numero di utenti che cercavano di usare DeepSeek è diminuito man mano che l'interesse diminuiva e gli utenti cambiavano comportamento in risposta ai blocchi.

Il grafico mostra anche che, sebbene il 91% delle organizzazioni avesse utenti che tentavano di utilizzare DeepSeek, la popolazione totale di utenti era piuttosto piccola. L'adozione limitata e precoce delle New tecnologie è tipica. La bassa percentuale di early adopter implica che i rischi derivanti dall'implementazione di una politica di blocco preventivo avranno un impatto negativo minimo sul business.

Report su cloud e minacce - AI generativa 2025 - Percentuale media di persone che utilizzano DeepSeek

Questo caso di studio DeepSeek offre lezioni fondamentali per le organizzazioni che mirano a ridurre i rischi per la sicurezza dei dati legati alle nuove app di IA:

  • I primi adottanti di New app genAI sono presenti in quasi tutte le organizzazioni (91%). I primi adottanti rappresentano un notevole rischio di sicurezza quando inviano dati sensibili a queste app.
  • La maggior parte delle organizzazioni ha adottato una politica del tipo "blocca prima e dopo, chiedi dopodi" per le New app genAI. Invece di giocare a "colpire la talpa" bloccando New app che i loro utenti potrebbero provare, permettono esplicitamente alcune app e bloccano tutte le altre. Questo tipo di Politica è eccellente per la riduzione del rischio, poiché offre all'organizzazione visibilità su chi sta usando l'app e concede loro il tempo di completare una revisione adeguata. Poiché la popolazione di early adopter è molto piccola, gli impatti negativi potenziali sull'azienda sono limitati.

 

Adozione locale dell'intelligenza artificiale generativa collegamento collegamento

Un modo per gestire i rischi di dati creati dalle app genAI basate su cloud è gestire localmente l'infrastruttura genAI. L'esecuzione localmente sta diventando più accessibile, reso possibile da organizzazioni come DeepSeek e Meta che hanno reso disponibili i loro modelli per il download, da strumenti come Ollama e LM Studio che forniscono strumenti per abilitare l'esecuzione di modelli localmente, e da comunità come Hugging Face che facilitano la condivisione di modelli e dati. Alcune organizzazioni addestrano persino i propri modelli, utilizzano la generazione aumentata dal recupero (RAG) per combinare genAI e recupero delle informazioni, oppure costruiscono i propri strumenti attorno ai modelli esistenti.

Nell'ultimo anno, il numero di organizzazioni che gestiscono localmente infrastrutture genAI è aumentato drasticamente, passando da meno dell'1% al 54%. La maggior parte della crescita si è verificata nella prima metà del 2024 e da allora si è stabilizzata. Ci aspettiamo che questa tendenza continui, con solo modesti guadagni nel prossimo anno. Come previsto, la popolazione di utenti che gestisce l'infrastruttura genAI locale è piuttosto piccola, con una media inferiore allo 0,1%. Tra questa popolazione di utenti, Ollama è lo strumento più diffuso per consentire l'esecuzione di modelli in locale, mentre Hugging Face è il sito più popolare per scaricare modelli, strumenti e altre risorse.

Cloud and Threat Report - Generative AI 2025 - Organizzazioni che utilizzano genAI localmente

Passare dall'uso di app genAI a modelli genAI locali cambia il panorama del rischio, introducendo diversi rischi aggiuntivi. La Top 10 OWASP per le applicazioni di grandi modelli linguistici fornisce un quadro per pensare a tali rischi, che includono:

  • Catena di approvvigionamento: Puoi fidarti di tutti gli strumenti e i modelli che usi?
  • Fuga di dati: Il tuo sistema espone informazioni sensibili provenienti dall'addestramento, dalle fonti di dati connesse o da altri utenti?
  • Gestione impropria dell'output: Qualche sistema che elabora output di GenAI lo fa in sicurezza?

Mitre Atlas è un altro quadro per considerare i rischi dell'IA. Fornisce una visione dettagliata degli attacchi contro i sistemi di IA. Chi utilizza sistemi genAI autogestiti deve anche considerare questi attacchi, che includono:

  • Iniezione rapida: gli avversari possono creare prompt per far sì che il modello fornisca output indesiderati?
  • Jailbreak: gli avversari possono aggirare controlli, restrizioni e barriere?
    Estrazione dei meta prompt: gli avversari possono rivelare dettagli sul funzionamento interno del sistema?

In altre parole, passare dalle app di generAI basate sul cloud a modelli di generAI ospitati localmente riduce il rischio di esposizione indesiderata ai dati da parte di terze parti, ma introduce molteplici rischi aggiuntivi. Addestrare i propri modelli o usare RAG amplia ulteriormente questi rischi. Tuttavia, quello che stiamo osservando finora non è una tendenza a distogliere dall'uso dei servizi cloud. Come abbiamo evidenziato in precedenza in questo rapporto, il numero di persone che utilizzano app cloud genAI, il numero di app utilizzate e la quantità di dati inviati a queste app sono tutti in aumento. Al contrario, stiamo assistendo all'aggiunta di infrastrutture genAI ospitate localmente oltre alle app genAI basate sul cloud già in uso. L'hosting locale di modelli genAI rappresenta un rischio additivo.

 

Riduzione del rischio nell'IA generativa collegamento collegamento

Oltre il 99% delle organizzazioni sta applicando policy per ridurre i rischi associati alle app genAI. Tali criteri includono il blocco di tutte o della maggior parte delle app genAI per tutti gli utenti, il controllo di quali specifiche popolazioni di utenti possono utilizzare le app genAI e il controllo dei dati consentiti nelle app genAI. Nelle sezioni seguenti vengono analizzate le politiche più diffuse.

Bloccaggio

Il blocco è la strategia più semplice per ridurre il rischio e, pertanto, la più diffusa. La sfida del blocco è duplice. In primo luogo, il blocco può avere ripercussioni sull'attività aziendale, limitando la produttività degli utenti. In secondo luogo, il blocco può spingere gli utenti a essere creativi, ad esempio utilizzando dispositivi personali o reti mobili personali per eludere i blocchi. Sebbene l'83% delle organizzazioni utilizzi la politica di blocco per alcune app, l'ambito di questa politica è mirato. La figura seguente mostra che il numero di app attivamente bloccate (ciò significa che esiste una policy per bloccare l'app e gli utenti tentano comunque di utilizzarla) nell'intera organizzazione (ciò significa che a nessuno nell'organizzazione è consentito utilizzarla) sta gradualmente aumentando, con una media di quattro app bloccate oggi. Il 25% delle organizzazioni più colpite blocca almeno 20 app, mentre l'1% (non raffigurato) ne blocca più di 100.

Report su cloud e minacce - Generative AI 2025 - Numero di app bloccate per organizzazione, mediana con area ombreggiata che mostra il 1° e il 3° quartile

La ripartizione delle 10 app più comunemente bloccate nella figura sottostante fornisce informazioni sulle strategie di blocco a livello di organizzazione. Le app più popolari (ChatGPT, Gemini, Copilot) non compaiono in questo elenco, mentre quelle presenti hanno numerose alternative sul mercato. Nel caso in cui vi siano molte alternative, le organizzazioni utilizzano la politica di blocco per indirizzare i propri utenti verso specifiche app approvate e allontanarli dalle app non approvate. In alcuni casi, come nel caso di Stable Diffusion (un generatore di immagini), l'app potrebbe non servire a scopi commerciali legittimi.

Cloud and Threat Report - Generative AI 2025 - Le app di IA più bloccate per percentuale di organizzazioni che hanno imposto un divieto totale sull'app

Coaching utente in tempo reale

La sezione precedente menzionava questa idea di indirizzare gli utenti lontano da certe app e verso altre che utilizzano la Politica di blocco. Il coaching utente in tempo reale offre un'alternativa più sfumata alla Politica di blocco, che può ricordare agli utenti che un'app specifica non è approvata per la gestione di dati sensibili, ma permette all'utente finale di decidere se usarla o meno. Il coaching utente in tempo reale è efficace perché dà all'utente la possibilità di prendere la decisione giusta sul momento. Aiuta anche a modellare il comportamento degli utenti fornendo feedback e indicazioni immediate.

L'allenamento, una politica più sfumata rispetto al blocco, è meno diffuso ma continua a crescere. Il 35% delle organizzazioni utilizza il coaching in tempo reale per ridurre i rischi della GenAI. Ci aspettiamo che questa percentuale aumenti a oltre il 40% nel prossimo anno. Le organizzazioni spesso abbinano il coaching ad altre Policy, come la Politica di prevenzione della perdita di dati.

Cloud and Threat Report - Generative AI 2025 - Percentuale di organizzazioni che utilizzano il coaching utente in tempo reale per controllare l'accesso alle app GenAI

Data Loss Prevention

La prevenzione della perdita di dati (DLP) riduce i rischi associati alle app genAI ispezionando in tempo reale prompt e dati inviati alle app genAI. DLP può decidere se consentire o bloccare il contenuto in base alle regole definite dagli amministratori. Proprietà intellettuale, segreti, dati regolamentati e codice sorgente sono i quattro tipi di dati più comuni che le organizzazioni limitano alla condivisione con le app genAI. Nella foto qui sotto, la Politica DLP per la genAI è cresciuta in popolarità all'inizio del 2025 e si è recentemente stabilizzata, con il 47% delle organizzazioni che utilizza il DLP per controllare l'accesso alle app genAI.

Cloud and Threat Report - Generative AI 2025 - Percentuale di organizzazioni che utilizzano DLP per controllare l'accesso alle app GenAI

 

Una prospettiva CISO collegamento collegamento

I CISO e i leader della sicurezza che leggono questo dovrebbero essere profondamente preoccupati per i rischi per la sicurezza dei dati associati all'uso in rapida crescita delle tecnologie genAI. Le app genAI basate sul cloud e i modelli genAI ospitati localmente introducono un rischio crescente di esposizione indesiderata dei dati e un New insieme di vulnerabilità di sicurezza.

Le organizzazioni devono agire immediatamente per gestire efficacemente questi rischi. Incoraggio i leader a rivedere il NIST AI Risk Management Framework, che fornisce una guida preziosa per le organizzazioni per governare, mappare, misurare e gestire i rischi della genAI.

Le misure specifiche che le organizzazioni possono adottare includono quanto segue:

  1. Valuta il tuo panorama di generIA: Capisci quali app di generAI e infrastrutture di generAI ospitate localmente stai usando, chi le utilizza e come vengono utilizzate.
  2. Rafforza i controlli delle tue app genAI: rivedi e confronta regolarmente i tuoi controlli con le best practice, ad esempio consentendo solo le app approvate, bloccando le app non approvate, utilizzando DLP per impedire che dati sensibili vengano condivisi con app non autorizzate e sfruttando il coaching degli utenti in tempo reale.
  3. Inventaria i controlli locali: Se utilizzi qualsiasi infrastruttura genAI localmente, consulta i framework rilevanti come OWASP Top 10 for Large Language Model Applications, NIST AI Risk Management Framework e Mitre Atlas per garantire un'adeguata protezione di dati, utenti e reti.
    È fondamentale monitorare costantemente l'uso della genAI all'interno della propria organizzazione e rimanere informati sugli sviluppi New nell'etica dell'IA, sui cambiamenti normativi e sugli attacchi avversari.

Tutti i responsabili della sicurezza informatica e dei rischi dovrebbero dare priorità alla governance dell'IA e ai programmi di gestione dei rischi per affrontare le sfide in continua evoluzione poste dalle tecnologie di genAI e dalla loro adozione attraverso pratiche di IA ombra. Adottando misure proattive per gestire questi rischi, possiamo garantire l'adozione e l'uso sicuri e responsabili di genAI a vantaggio della vostra organizzazione.

 

Netskope Threat Labs collegamento collegamento

Grazie al personale dei più importanti ricercatori del settore in materia di minacce cloud e malware, Netskope Threat Labs scopre, analizza e progetta difese contro le più recenti minacce cloud che colpiscono le aziende. I nostri ricercatori sono relatori e volontari abituali alle principali conferenze sulla sicurezza, tra cui DefCon, BlackHat e RSA.

 

Informazioni su questo rapporto collegamento collegamento

Netskope offre protezione contro le minacce a milioni di utenti in tutto il mondo. Le informazioni presentate in questo rapporto si basano su dati di utilizzo anonimizzati raccolti dalla piattaforma Netskope One relativi a un sottoinsieme di clienti Netskope con autorizzazione preventiva.

Questo rapporto contiene informazioni sui rilevamenti effettuati da Netskope One Next Generation Secure Web Gateway (SWG), senza considerare la rilevanza dell'impatto di ogni singola minaccia. Le statistiche in questo rapporto si basano sul periodo dal 1° febbraio 2024 al 28 febbraio 2025. Le statistiche riflettono le tattiche degli attaccanti, il comportamento degli utenti e le politiche dell'organizzazione.

Gioca a AI CyberSprint - Il gioco da corsa online definitivo