Nell'ultimo anno, le aziende hanno continuato a soffrire di difficoltà con il modo in cui i dipendenti utilizzano gli strumenti di IA generativa. Proprio come nei primi giorni delle piattaforme SaaS e cloud, molti lavoratori hanno iniziato a sperimentare app di IA da soli, solitamente accedendo con account personali molto prima che i team IT o di sicurezza implementassero tra i loro dipendenti strumenti di genAI approvati dall'azienda. Questo schema ha dato origine a quella che oggi è comunemente chiamata shadow AI, l'uso dell'IA che avviene al di fuori della visibilità organizzativa, delle Politiche e del controllo.
Anche con la rapida spinta verso i framework di licenze e governance aziendali, l'accesso non regolamentato è ancora diffuso. Il monitoraggio interno tra le organizzazioni mostra che una quota consistente dei dipendenti si affida a strumenti come ChatGPT, Google Gemini e Copilot utilizzando credenziali non associate alla loro organizzazione. La buona notizia è che questo comportamento sta andando nella direzione giusta. L'utilizzo degli account personali è diminuito significativamente nell'ultimo anno, con la percentuale di utenti IA che utilizzano app personali è scesa dal 78% al 47%. Parallelamente, la percentuale di persone che utilizzano account gestiti dall'organizzazione è salita dal 25% al 62%, segnalando che sempre più aziende stanno standardizzando l'accesso all'IA e maturando la loro supervisione. Tuttavia, qui c'è una crescente sovrapposizione di persone che passano avanti e indietro tra account personali e aziendali, passando dal 4% agli utenti al 9%. Questa sovrapposizione indica che le aziende hanno ancora del lavoro da fare per offrire i livelli di comodità o funzionalità desiderati dagli utenti. Il passaggio verso i conti gestiti è incoraggiante, ma mette anche in evidenza quanto rapidamente il comportamento dei dipendenti possa superare quello della governance. Le organizzazioni che vogliono ridurre l'esposizione avranno bisogno di politiche più chiare, migliori provisioning e una visibilità continua su come gli strumenti di IA vengono effettivamente utilizzati tra la forza lavoro.

Sebbene il passaggio dagli account personali agli account AI gestiti dall'organizzazione sia incoraggiante, le organizzazioni stanno anche affrontando una sfida diversa: il numero totale di persone che utilizzano qualsiasi applicazione SaaS genAI sta crescendo esponenzialmente, triplicando nell'ultimo anno nella media delle organizzazioni. Ciò che rende questa tendenza particolarmente rilevante è che si sta verificando nonostante l'aumento dei controlli e della governance sulle applicazioni di genAI gestite. Ciò suggerisce che la domanda e la dipendenza dei dipendenti dalle capacità di GenAI continuano ad accelerare più rapidamente di quanto le guardrail organizzative possano essere implementate.

Sebbene il numero di utenti sia triplicato in media, la quantità di dati inviati alle app SaaS genAI è cresciuta di sei, passando da 3.000 a 18.000 prompt al mese. Nel frattempo, il 25% delle organizzazioni più ricche invia più di 70.000 prompt al mese, mentre l'1% più alto (non mostrato nella foto) invia più di 1,4 milioni di prompt al mese. Nella sezione successiva, esploriamo i rischi che accompagnano questo crescente flusso di dati nelle app SaaS genAI.

Nell'ultimo anno, diverse applicazioni di generAI sono emerse come pilastri in varie regioni e settori. ChatGPT ha registrato un'adozione al 77%, seguita da Google Gemini al 69%. Microsoft 365 Copilot ha raggiunto il 52% di adozione, mostrando un forte interesse per le funzionalità di IA integrate negli ambienti di lavoro quotidiani. Oltre a questi strumenti di punta, le organizzazioni hanno anche fatto ampio uso di varie applicazioni di IA specializzate e embedded, adattate alle esigenze operative, analitiche e guidate dal flusso di lavoro.

Il grafico qui sotto mostra come l'adozione delle applicazioni di IA di alta generazione sia cambiata nell'ultimo anno tra regioni e settori. ChatGPT ha mantenuto un utilizzo costantemente elevato, con una media del 77% durante tutto l'anno. Google Gemini ha mostrato un forte slancio al rialzo, passando dal 46% al 69%, indicando una tendenza crescente delle organizzazioni che utilizzano più servizi SaaS genAI con funzionalità sovrapposte. Microsoft 365 Copilot ha raggiunto il 52% di adozione, supportato dalla sua integrazione nell'ecosistema prodotto Microsoft 365. Anche Perplexity ha registrato una crescita costante, passando dal 23% al 35%, probabilmente dovuta alla crescente popolarità del browser Comet e al suo flusso di lavoro AI snello e orientato alla ricerca. In particolare, Grok, precedentemente una delle applicazioni genAI più frequentemente bloccate, ha iniziato a guadagnare terreno ad aprile, con l'utilizzo che è salito al 28% man mano che più organizzazioni sperimentavano le sue capacità nonostante le restrizioni precedenti.

L'adozione rapida e decentralizzata di strumenti di IA SaaS generativa rimodellerà radicalmente il panorama della sicurezza cloud nel 2026. Ci aspettiamo di vedere due grandi cambiamenti: la continua crescita esponenziale dell'uso della genAI nelle funzioni aziendali e la sradicazione di ChatGPT da parte dell'ecosistema Gemini come piattaforma SaaS genAI più popolare. Al ritmo attuale, Gemini è pronto a superare ChatGPT nella prima metà del 2026, riflettendo la forte competizione e la rapida innovazione nel settore. Le organizzazioni faticheranno a mantenere la governance dei dati poiché le informazioni sensibili fluiscono liberamente negli ecosistemi di IA non approvati, portando a un aumento dell'esposizione accidentale dei dati e dei rischi di conformità. Gli attaccanti, al contrario, sfrutteranno questo ambiente frammentato, sfruttando l'IA per condurre ricognizioni iperefficienti e creare attacchi altamente personalizzati che prendono di mira modelli proprietari e dati di addestramento. La necessità di bilanciare l'innovazione guidata dall'IA con la sicurezza richiederà un passaggio verso una politica di protezione dei dati consapevoli dell'IA e uno strato di visibilità centralizzato in grado di monitorare e controllare l'uso della GenAI in tutte SaaS applicazioni, rendendo l'applicazione di controlli di accesso dettagliati e consapevoli del contesto e di garrelazioni etiche una priorità critica per la sicurezza del prossimo anno.