Evento di Lancio: Smart AI Security. Controllo Totale dei Dati. Prenota il tuo posto

chiudere
chiudere
La tua rete di domani
La tua rete di domani
Pianifica il tuo percorso verso una rete più veloce, sicura e resiliente, progettata per le applicazioni e gli utenti che supporti.
          Experience Netskope
          Prova direttamente la piattaforma Netskope
          Ecco la tua occasione per sperimentare in prima persona la piattaforma single-cloud di Netskope One. Iscriviti a laboratori pratici e a ritmo autonomo, unisciti a noi per dimostrazioni mensili di prodotti dal vivo, fai un test drive gratuito di Netskope Private Access o partecipa a workshop dal vivo guidati da istruttori.
            Un leader in SSE. Ora è un leader nel settore SASE a singolo fornitore.
            Netskope è riconosciuto come Leader Più Lontano in Visione sia per le piattaforme SSE che SASE
            2 volte leader nel Quadrante Magico di Gartner® per piattaforme SASE
            Una piattaforma unificata costruita per il tuo percorso
              Securing Generative AI for Dummies
              Securing Generative AI for Dummies
              Scopri come la tua organizzazione può bilanciare il potenziale innovativo dell'AI generativa con pratiche solide di sicurezza dei dati.
                eBook sulla Modern Data Loss Prevention (DLP) for Dummies
                Modern Data Loss Prevention (DLP) for Dummies
                Ricevi consigli e trucchi per passare a un DLP fornito dal cloud.
                  Modern SD-WAN for SASE Dummies Book
                  Modern SD-WAN for SASE Dummies
                  Smettila di inseguire la tua architettura di rete
                    Comprendere dove risiede il rischio
                    Advanced Analytics trasforma il modo in cui i team di operazioni di sicurezza applicano insight basati sui dati per implementare policy migliori. Con l'Advanced Analytics, puoi identificare tendenze, concentrarti sulle aree di interesse e utilizzare i dati per agire.
                        Supporto tecnico Netskope
                        Supporto tecnico Netskope
                        I nostri ingegneri di supporto qualificati sono dislocati in tutto il mondo e possiedono competenze diversificate in sicurezza cloud, networking, virtualizzazione, content delivery e sviluppo software, garantendo un'assistenza tecnica tempestiva e di qualità.
                          Video Netskope
                          Formazione Netskope
                          La formazione Netskope ti aiuterà a diventare un esperto di sicurezza cloud. Siamo qui per aiutarti a proteggere il tuo percorso di trasformazione digitale e a sfruttare al meglio le tue applicazioni cloud, web e private.

                            Questo rapporto analizza le principali tendenze del rischio di cybersecurity che impattano le organizzazioni in tutto il mondo. Affronta la crescente adozione degli strumenti di IA generativa (genAI) e le relative sfide legate alla sicurezza dei dati. Inoltre, mette in evidenza il crescente numero di violazioni della politica sui dati, dove informazioni sensibili vengono sempre più diffuse tramite servizi cloud non autorizzati, applicazioni personali e piattaforme genAI.

                            23 minuti di lettura

                            Introduzione collegamento collegamento

                            L'edizione 2026 del Netskope Cloud and Threat Report è pensata per analizzare le tendenze più significative della cybersecurity dell'anno precedente, offrendo un'anteprima critica delle sfide e dei rischi che definiranno il panorama aziendale nel 2026. Nel 2025, la rapida e spesso non regolamentata adozione dell'IA generativa ha rimodellato radicalmente il panorama della cybersecurity. Mentre le organizzazioni affrontavano le complessità della sicurezza dei dati cloud, delle campagne di phishing persistenti e del malware emesso tramite canali affidabili, l'introduzione di un uso diffuso dell'IA—in particolare la "shadow AI" e la emergente "agentic AI"—ha stratificato rischi di esposizione New e complessi ai dati nell'ambiente aziendale moderno. Questo rapporto offre uno sguardo alle tendenze più significative del 2025 e rappresenta un'anteprima critica del panorama delle minacce in evoluzione per il 2026, evidenziando la natura additiva dei rischi che i team di sicurezza devono ora affrontare. Non solo i team di sicurezza devono ancora gestire i rischi esistenti, ma ora devono anche gestire i rischi creati dalla genAI.

                            Il rischio più immediato specifico per genAI è l'aumento sostanziale dell'esposizione ai dati, con il tasso di violazioni delle politiche sui dati associate all'uso delle applicazioni genAI che è raddoppiato lo scorso anno. Questa adozione accelerata è spesso guidata dall'IA ombra— l'uso da parte dei dipendenti di servizi non gestiti e account personali — che porta alla fuga di materiale altamente sensibile, inclusi codice sorgente, dati regolamentati e proprietà intellettuale. Contemporaneamente, l'introduzione operativa di sistemi di IA agenti , che eseguono azioni complesse e autonome su risorse interne ed esterne, crea una vasta superficie di attacco New che richiede una rivalutazione fondamentale dei perimetri di sicurezza e dei modelli di fiducia.

                            Questa combinazione di minacce innovative guidate dall'IA e preoccupazioni di sicurezza legacy definisce il panorama delle minacce in evoluzione per il 2026. Poiché il comportamento dei dipendenti e gli strumenti di IA New evolvono più rapidamente rispetto alle salvaguardie tradizionali, è essenziale rafforzare la supervisione, i controlli di prevenzione della perdita di dati (DLP) e la postura generale della sicurezza.

                            In questo rapporto collegamento collegamento

                            • L'uso della GenAI SaaS sta rapidamente aumentando: Il numero di persone che utilizzano app SaaS genAI come ChatGPT e Gemini è triplicato, mentre il numero di prompt inviati alle app è cresciuto di sei volte nell'ultimo anno. L'IA ombra rimane una sfida significativa, con il 47% degli utenti di genAI che utilizza app di IA personali.
                            • Gli incidenti di violazione delle politiche sui dati GenAI stanno aumentando rapidamente: Con l'aumento della popolarità delle app genAI, il numero di episodi di utenti che inviano dati sensibili alle app di IA è raddoppiato nell'ultimo anno, con una media di 223 incidenti al mese per un'organizzazione.
                            • Le app personali rappresentano un rischio significativo di minaccia interna: il 60% degli incidenti di minacce interne riguarda istanze di app cloud personali, con dati regolamentati, proprietà intellettuale, codice sorgente e credenziali che vengono spesso inviati alle istanze di app personali in violazione delle Politiche dell'organizzazione.
                            • Il phishing rimane una sfida persistente: Nonostante un calo anno su anno del numero di persone che cliccano su link di phishing, il phishing rimane un problema persistente, con 87 utenti su 10.000 che cliccano su un link di phishing ogni mese, e Microsoft è il marchio più imitato.
                            • Il malware continua a infiltrarsi nelle organizzazioni attraverso canali affidabili: Gli attaccanti continuano ad avere successo nel distribuire malware alle loro vittime tramite canali affidabili, inclusi registri software come npm e app cloud popolari come GitHub, OneDrive e Google Drive.

                             

                            L'uso di GenAI SaaS sta aumentando rapidamente collegamento collegamento

                            Nell'ultimo anno, le aziende hanno continuato a soffrire di difficoltà con il modo in cui i dipendenti utilizzano gli strumenti di IA generativa. Proprio come nei primi giorni delle piattaforme SaaS e cloud, molti lavoratori hanno iniziato a sperimentare app di IA da soli, solitamente accedendo con account personali molto prima che i team IT o di sicurezza implementassero tra i loro dipendenti strumenti di genAI approvati dall'azienda. Questo schema ha dato origine a quella che oggi è comunemente chiamata shadow AI, l'uso dell'IA che avviene al di fuori della visibilità organizzativa, delle Politiche e del controllo.

                            Anche con la rapida spinta verso i framework di licenze e governance aziendali, l'accesso non regolamentato è ancora diffuso. Il monitoraggio interno tra le organizzazioni mostra che una quota consistente dei dipendenti si affida a strumenti come ChatGPT, Google Gemini e Copilot utilizzando credenziali non associate alla loro organizzazione. La buona notizia è che questo comportamento sta andando nella direzione giusta. L'utilizzo degli account personali è diminuito significativamente nell'ultimo anno, con la percentuale di utenti IA che utilizzano app personali è scesa dal 78% al 47%. Parallelamente, la percentuale di persone che utilizzano account gestiti dall'organizzazione è salita dal 25% al 62%, segnalando che sempre più aziende stanno standardizzando l'accesso all'IA e maturando la loro supervisione. Tuttavia, qui c'è una crescente sovrapposizione di persone che passano avanti e indietro tra account personali e aziendali, passando dal 4% agli utenti al 9%. Questa sovrapposizione indica che le aziende hanno ancora del lavoro da fare per offrire i livelli di comodità o funzionalità desiderati dagli utenti. Il passaggio verso i conti gestiti è incoraggiante, ma mette anche in evidenza quanto rapidamente il comportamento dei dipendenti possa superare quello della governance. Le organizzazioni che vogliono ridurre l'esposizione avranno bisogno di politiche più chiare, migliori provisioning e una visibilità continua su come gli strumenti di IA vengono effettivamente utilizzati tra la forza lavoro.

                            Grafico che mostra l'uso di GenAI per la suddivisione degli account personali vs aziendali

                            Sebbene il passaggio dagli account personali agli account AI gestiti dall'organizzazione sia incoraggiante, le organizzazioni stanno anche affrontando una sfida diversa: il numero totale di persone che utilizzano qualsiasi applicazione SaaS genAI sta crescendo esponenzialmente, triplicando nell'ultimo anno nella media delle organizzazioni. Ciò che rende questa tendenza particolarmente rilevante è che si sta verificando nonostante l'aumento dei controlli e della governance sulle applicazioni di genAI gestite. Ciò suggerisce che la domanda e la dipendenza dei dipendenti dalle capacità di GenAI continuano ad accelerare più rapidamente di quanto le guardrail organizzative possano essere implementate.

                            Grafico che mostra la percentuale mediana degli utenti GenAI al mese con l'area ombreggiata che mostra il 1° e il 3° quartili

                            Sebbene il numero di utenti sia triplicato in media, la quantità di dati inviati alle app SaaS genAI è cresciuta di sei, passando da 3.000 a 18.000 prompt al mese. Nel frattempo, il 25% delle organizzazioni più ricche invia più di 70.000 prompt al mese, mentre l'1% più alto (non mostrato nella foto) invia più di 1,4 milioni di prompt al mese. Nella sezione successiva, esploriamo i rischi che accompagnano questo crescente flusso di dati nelle app SaaS genAI.

                            Prompt GenAI per mediana organizzativa con area ombreggiata che mostra il 1° e il 3° quartili

                            Nell'ultimo anno, diverse applicazioni di generAI sono emerse come pilastri in varie regioni e settori. ChatGPT ha registrato un'adozione al 77%, seguita da Google Gemini al 69%. Microsoft 365 Copilot ha raggiunto il 52% di adozione, mostrando un forte interesse per le funzionalità di IA integrate negli ambienti di lavoro quotidiani. Oltre a questi strumenti di punta, le organizzazioni hanno anche fatto ampio uso di varie applicazioni di IA specializzate e embedded, adattate alle esigenze operative, analitiche e guidate dal flusso di lavoro.

                            grafico che mostra le app GenAI più popolari in base alla percentuale di organizzazioni che utilizzano tali app

                            Il grafico qui sotto mostra come l'adozione delle applicazioni di IA di alta generazione sia cambiata nell'ultimo anno tra regioni e settori. ChatGPT ha mantenuto un utilizzo costantemente elevato, con una media del 77% durante tutto l'anno. Google Gemini ha mostrato un forte slancio al rialzo, passando dal 46% al 69%, indicando una tendenza crescente delle organizzazioni che utilizzano più servizi SaaS genAI con funzionalità sovrapposte. Microsoft 365 Copilot ha raggiunto il 52% di adozione, supportato dalla sua integrazione nell'ecosistema prodotto Microsoft 365. Anche Perplexity ha registrato una crescita costante, passando dal 23% al 35%, probabilmente dovuta alla crescente popolarità del browser Comet e al suo flusso di lavoro AI snello e orientato alla ricerca. In particolare, Grok, precedentemente una delle applicazioni genAI più frequentemente bloccate, ha iniziato a guadagnare terreno ad aprile, con l'utilizzo che è salito al 28% man mano che più organizzazioni sperimentavano le sue capacità nonostante le restrizioni precedenti.

                            Grafico che mostra le app più popolari per percentuale di organizzazioni

                            L'adozione rapida e decentralizzata di strumenti di IA SaaS generativa rimodellerà radicalmente il panorama della sicurezza cloud nel 2026. Ci aspettiamo di vedere due grandi cambiamenti: la continua crescita esponenziale dell'uso della genAI nelle funzioni aziendali e la sradicazione di ChatGPT da parte dell'ecosistema Gemini come piattaforma SaaS genAI più popolare. Al ritmo attuale, Gemini è pronto a superare ChatGPT nella prima metà del 2026, riflettendo la forte competizione e la rapida innovazione nel settore. Le organizzazioni faticheranno a mantenere la governance dei dati poiché le informazioni sensibili fluiscono liberamente negli ecosistemi di IA non approvati, portando a un aumento dell'esposizione accidentale dei dati e dei rischi di conformità. Gli attaccanti, al contrario, sfrutteranno questo ambiente frammentato, sfruttando l'IA per condurre ricognizioni iperefficienti e creare attacchi altamente personalizzati che prendono di mira modelli proprietari e dati di addestramento. La necessità di bilanciare l'innovazione guidata dall'IA con la sicurezza richiederà un passaggio verso una politica di protezione dei dati consapevoli dell'IA e uno strato di visibilità centralizzato in grado di monitorare e controllare l'uso della GenAI in tutte SaaS applicazioni, rendendo l'applicazione di controlli di accesso dettagliati e consapevoli del contesto e di garrelazioni etiche una priorità critica per la sicurezza del prossimo anno.

                             

                            Gli episodi di violazione delle politiche di GenAI stanno aumentando rapidamente collegamento collegamento

                            Nella sezione precedente, abbiamo evidenziato un triplicatore del numero di utenti genAI e un aumento di sei volte del numero di prompt inviati alle app SaaS genAI. La ragione principale per cui questa tendenza dovrebbe preoccupare i professionisti della cybersecurity è che, con l'aumento dell'utilizzo, si verifica un aumento delle esposizioni indesiderate di dati a terze parti. Questo rischio radica nei modi quotidiani in cui questi strumenti vengono utilizzati. Che un utente chieda a un sistema di IA di riassumere documenti, dataset o codice, o che si affidi ad esso per generare testi, media o estratti software, il flusso di lavoro richiede quasi sempre di caricare dati interni su un servizio esterno o di collegare i propri archivi dati interni a un'app di IA esterna. Questo requisito da solo crea un rischio di esposizione sostanziale. In questa sezione, esaminiamo i rischi di esposizione ai dati sensibili che accompagnano un aumento così drammatico dell'uso della GenAI, evidenziando un doppio aumento delle violazioni della politica sui dati nello stesso periodo.

                            Nell'organizzazione media, sia il numero di utenti che commettono violazioni della politica sui dati sia il numero di incidenti di politica sui dati sono raddoppiati nell'ultimo anno, con una media del 3% degli utenti genAI che commette in media 223 violazioni della politica sui dati genAI al mese. Nel frattempo, il 25% delle organizzazioni più ricche registra in media 2.100 incidenti al mese nel 13% della loro base utenti genAI, dimostrando che la gravità del problema varia significativamente tra le diverse organizzazioni.

                            Questa discrepanza, un doppio aumento delle violazioni della politica rispetto a un triplicatore degli utenti di GenAI e un aumento di sei volte dei prompt, rivela una lacuna critica nella postura di sicurezza organizzativa. L'aumento raddoppiato delle violazioni rappresenta solo gli incidenti rilevati. L'aumento minore delle violazioni rispetto all'uso evidenzia che molte organizzazioni devono ancora raggiungere la maturità nella gestione di questa attività; ben il 50% delle organizzazioni non dispone di una politica di protezione dei dati applicabile per le app genAI. In questi ambienti, i dipendenti possono inviare dati sensibili a modelli di IA senza rilevarsi, mascherando così la vera entità della fuga di dati. Pertanto, l'aumento raddoppiato osservato è probabilmente una sottostima del rischio reale di esposizione ai dati, suggerendo che il problema sia peggiore nella maggior parte delle organizzazioni che ancora si affidano alla fiducia degli utenti piuttosto che all'applicazione tecnica. Tali organizzazioni dovrebbero considerare seriamente di rafforzare la governance dei dati e implementare controlli applicabili e consapevoli dei contenuti.

                            grafico che mostra la media dei caricamenti di dati sensibili alle app GenAi con percentuale mediana con l'area ombreggiata che mostra il 1° e il 3° quartili

                            I rischi di esposizione ai dati associati alla genAI sono amplificati dal gran numero di strumenti di IA disponibili e dalla presenza continua di strumenti shadow AI utilizzati senza approvazione o supervisione. Di conseguenza, le organizzazioni si imbattono regolarmente in diverse categorie di dati sensibili trasferiti alle piattaforme genAI in violazione delle Politiche interne. I tipi di dati più comuni coinvolti includono:

                            • Codice sorgente, che gli utenti spesso inviano quando cercano aiuto per il debug, suggerimenti di rifattorizzazione o generazione di codice.
                            • Dati regolamentati, come dati personali, finanziari o sanitari.
                            • Proprietà intellettuale, inclusi contratti, documenti interni e ricerche proprietarie che i dipendenti caricano per analisi o sintesi.
                            • Password e chiavi, che spesso appaiono all'interno di esempi di codice o file di configurazione.

                            Le tre categorie di dati più coinvolte nelle violazioni delle politiche sui dati genAI nell'ultimo anno sono state il codice sorgente (42%), i dati regolamentati (32%) e la proprietà intellettuale (16%). La crescente frequenza di tali incidenti è guidata da una varietà di fattori, dalla rapida adozione degli strumenti genAI e la loro integrazione più profonda nei flussi di lavoro quotidiani alla mancanza di consapevolezza della sicurezza dei dati da parte dei dipendenti nell'uso di strumenti di IA, che spesso fanno senza l'approvazione o la supervisione IT/sicurezza.

                            La combinazione dell'aumento delle violazioni delle politiche sui dati e dell'elevata sensibilità dei dati regolarmente compromessi dovrebbe essere una preoccupazione primaria per le organizzazioni che non hanno intrapreso iniziative per controllare il rischio dell'IA. Senza controlli più rigorosi, la probabilità di perdite accidentali, fallimenti di conformità e compromissione a valle continua ad aumentare mese dopo mese.

                            Grafico che mostra il tipo di dati che violano le politiche per le app genAI

                            Oltre alle tradizionali applicazioni genAI, tecnologie emergenti come i browser basati su IA e le applicazioni che sfruttano il Model Context Protocol (MCP)—che sta rapidamente diventando il metodo preferito per collegare gli agenti AI alle risorse aziendali—presentano rischi potenziali aggiuntivi. Questi strumenti possono eseguire attività, accedere a risorse locali o cloud e interagire con altri software per conto dell'utente, ampliando di fatto la superficie di attacco dell'organizzazione. Poiché gli agenti abilitati a MCP possono connettersi a servizi o strumenti esterni, informazioni sensibili potrebbero essere esposte involontariamente e attori malintenzionati potrebbero sfruttare queste capacità per compromettere sistemi o flussi di lavoro. Anche senza un'adozione diffusa, le organizzazioni dovrebbero considerare i browser AI e i sistemi integrati MCP come aree emergenti di interesse e implementare di conseguenza politiche di governance, monitoraggio e utilizzo.

                            L'ascesa dei browser AI e dei server MCP nel 2026 amplificarà il problema già crescente delle fughe di dati GenAI, costringendo più organizzazioni a ottenere una migliore visibilità e controllo sull'uso delle tecnologie IA. La questione centrale per i leader della sicurezza rimarrà come proteggere i materiali sensibili consentendo al contempo alla forza lavoro di beneficiare della genAI. Rafforzare la copertura DLP, migliorare la consapevolezza dei dipendenti e applicare una politica chiara sulla gestione dei dati saranno aree di interesse principali per molte organizzazioni.

                            Bloccare le app GenAI indesiderate riduce il rischio di esposizione ai dati

                            La sezione precedente si è concentrata su come la Politica di protezione dei dati consapevole dei contenuti possa controllare il flusso di dati sensibili nelle app genAI. L'assunzione di fondo era che quelle app dovessero essere sicure da usare in contesti specifici e svolgere uno scopo commerciale legittimo. Quando un'app non è sicura da usare in nessun contesto o non serve a uno scopo commerciale legittimo, la riduzione del rischio diventa molto più semplice: basta bloccare completamente l'app. Il 90% delle organizzazioni utilizza questa strategia di base ma efficace, con un'organizzazione media che blocca attivamente 10 app. Qui, un "blocco attivo" significa non solo che un'organizzazione ha una Politica per bloccare l'app per tutti i suoi utenti, ma che la Politica impedisce attivamente agli utenti di tentare di usare l'app (a differenza di una Politica che blocca qualcosa che nessuno sta comunque cercando di usare). Sebbene le politiche di ogni organizzazione siano diverse, alcuni strumenti sono limitati molto più spesso di altri, rivelando dove i team di sicurezza vedono il potenziale di danno più significativo. Per molti ambienti, bloccare intere categorie di servizi di genAI ad alto rischio può offrire una protezione più gestibile rispetto all'analisi degli strumenti uno per uno.

                            ZeroGPT è attualmente l'applicazione correlata alla genAI più frequentemente bloccata, con il 45% delle organizzazioni che limita l'accesso. Molti team di sicurezza considerano il servizio ad alto rischio perché gli strumenti di rilevamento IA spesso richiedono agli utenti di inviare testo completo, codice sorgente o altro materiale sensibile per l'analisi.

                            DeepSeek segue con il 43% delle organizzazioni che lo blocca, spinti da preoccupazioni riguardo alla trasparenza limitata, al rapido cambiamento del comportamento delle piattaforme, alla sovranità dei dati e alle incertezze associate agli ecosistemi di IA emergenti.

                            Queste tendenze di blocco suggeriscono che le organizzazioni non solo reagiscono ai rischi posti dai singoli strumenti, ma stanno anche maturando le loro strategie di governance. L'attenzione si sta spostando sul prevenire che dati sensibili escano dall'organizzazione fin dall'inizio, in particolare verso servizi con garanzie di sicurezza poco chiare o una divulgazione insufficiente su come i contenuti degli utenti vengano elaborati e archiviati.

                            ""

                            La Politica di Blocco per le app di IA indesiderate è generalmente stata molto efficace. Sebbene il numero di app di generAI che Netskope Threat Labs sta monitorando sia aumentato di cinque volte, passando da 317 a oltre 1.600 nell'ultimo anno, il numero medio di app di IA utilizzate in un'organizzazione è aumentato solo del 33%, passando dal 6 all'8. Solo nell'1% più alto delle organizzazioni (non nella foto), dove i controlli sono più lassi, abbiamo visto aumenti significativi, da 47 a 89 app. Queste organizzazioni eccezionali dovrebbero servire da promemoria per tutte le organizzazioni di fare un inventario di quante app di generAI utilizzano e se tutte svolgono uno scopo commerciale legittimo. Le organizzazioni eccezionali possono ridurre significativamente i loro rischi limitando semplicemente l'accesso alle app che non sono critiche per il business e applicando la Politica di protezione e coaching dei dati alle app che lo sono.

                            ""

                            Nel 2026, prevediamo che il numero di organizzazioni eccezionali che permettono l'uso di decine di applicazioni genAI diminuirà, man mano che sempre più organizzazioni inizieranno a esercitare il controllo sui propri ecosistemi genAI, spinte dall'introduzione continua di app genAI New e dai modi New di interagire con le app genAI, come i browser di IA. Dopo aver ottenuto una maggiore visibilità sull'uso della generAI, sempre più organizzazioni adotteranno un approccio più proattivo bloccando tutte le applicazioni di IA tranne quelle in una lista approvata.

                            L'adozione dell'Agentic AI amplifica l'esposizione dei dati e il rischio insider.

                            Oltre ai browser AI e ai server MCP, un'altra tendenza emergente nel campo della genAI che sta spingendo le organizzazioni a evolvere la loro postura di sicurezza è l'IA agentica. I sistemi di IA agentica sono quelli che eseguono azioni complesse e autonome su risorse interne ed esterne. Le organizzazioni stanno già assistendo a una rapida adozione dell'IA agente, sia utilizzando servizi SaaS sia piattaforme di IA come Azure OpenAI. Sebbene l'adozione precoce favorisse le applicazioni SaaS per la loro comodità, le soluzioni basate su piattaforme ora permettono alle aziende di ospitare modelli internamente, integrarli con l'infrastruttura esistente e costruire applicazioni personalizzate o agenti autonomi su misura per workflow specifici.

                            Attualmente, il 33% delle organizzazioni utilizza i servizi OpenAI tramite Azure, il 27% utilizza Amazon Bedrock e il 10% sfrutta Google Vertex AI. Il passaggio verso queste piattaforme di livello enterprise è guidato dall'espansione della disponibilità di servizi genAI sicuri basati su cloud, che offrono controlli sulla privacy più forti e opzioni di integrazione più profonde. La crescita anno su anno sottolinea ulteriormente questo slancio: il numero di utenti di Bedrock e il traffico di Bedrock sono triplicati, mentre il numero di utenti di Vertex AI è cresciuto di sei volte con un aumento di dieci volte del traffico. Queste tendenze evidenziano quanto rapidamente le organizzazioni stiano scalando la loro infrastruttura genAI mentre esplorano framework di implementazione più privati, flessibili e conformi.

                            Anche se i dati fluiscono sempre più attraverso framework gestiti, sia tramite modelli ospitati che tramite agenti AI autonomi, i rischi per la sicurezza restano elevati. La rapida ascesa dei sistemi agentici introduce New vettori di attacco, tra cui l'uso improprio degli strumenti, azioni autonome pericolose e percorsi ampliati per l'esfiltrazione dei dati. I modelli gestiti riducono alcuni rischi ma non possono eliminare l'esposizione da iniezione rapida, accesso eccessivo agli strumenti, integrazioni API insicure o perdite di dati intenzionali tra contesto. Man mano che gli agenti AI acquisiscono la capacità di eseguire compiti e interagire con servizi interni ed esterni, l'impatto potenziale di configurazioni errate o flussi di lavoro compromessi cresce notevolmente. Le organizzazioni che adottano queste piattaforme devono abbinare la modernizzazione a rigorosi controlli di sicurezza, monitoraggio continuo e progettazione a privilegi minimi per garantire che la scalabilità non abbia un costo della sicurezza.

                            ""

                            Anche quando gli agenti e le applicazioni IA funzionano on-premises o all'interno di ambienti aziendali gestiti, i modelli sottostanti sono comunque frequentemente accessibili tramite API cloud piuttosto che tramite interfacce browser tradizionali. Mentre le interazioni basate sul browser passano attraverso domini come chatgpt.com, flussi di lavoro automatizzati, strumenti interni e agenti AI si affidano invece a endpoint come api.openai.com per l'accesso programmativo.

                            Questo cambiamento sta accelerando rapidamente. Oggi, il 70% delle organizzazioni si collega a api.openai.com, riflettendo il ruolo dominante di OpenAI nell'uso di generAI non basato su browser su strumenti interni e sistemi agenti. AssemblyAI segue con il 54%, grazie alle sue forti capacità di voce vocale e intelligenza audio. Le API di Anthropic sono utilizzate dal 30% delle organizzazioni, una tendenza alimentata dalla crescente adozione da parte degli sviluppatori dei modelli Claude per compiti a forte ragionamento, analisi strutturata e sviluppo applicativo.

                            Man mano che l'IA continua a espandersi più a fondo nell'infrastruttura operativa, l'uso della genAI basata su API probabilmente accelererà, diventando uno dei principali canali attraverso cui l'automazione aziendale e gli agenti IA interagiscono con grandi modelli linguistici.

                            ""

                            L'adozione crescente dell'IA agentica amplifica non solo i rischi di esposizione ai dati evidenziati in precedenza in questo rapporto (poiché gli agenti possono inviare dati alle app genAI a un ritmo molto più rapido), ma amplifica anche i rischi per gli insider, poiché un agente a cui viene dato accesso a dati o sistemi sensibili può causare danni a un tasso molto più elevato. Non solo un insider malintenzionato potrebbe sfruttare un agente per causare danni alla propria organizzazione, ma un insider negligente potrebbe configurare male o provocare in modo impreciso un agente. Il non-determinismo dei sistemi agentici basati su LLM amplificava ulteriormente questi rischi – le allucinazioni lungo il percorso potevano accumularsi e causare esposizioni ai dati o altri danni organizzativi.

                            La rapida proliferazione dell'IA agente, insieme al suo passaggio verso flussi di lavoro basati su piattaforme e guidati da API, rappresenta un mandato di sicurezza impegnativo per il 2026. Le organizzazioni devono riconoscere che, sebbene questi sistemi autonomi consentano New livelli di efficienza, espandono anche drasticamente la superficie di attacco e accelerano il potenziale di esposizione dei dati guidati dall'interno. Man mano che gli agenti acquisiscono maggiore accesso e autonomia, il successo nel 2026 dipenderà dall'abbinare questa innovazione a una rigorosa modernizzazione della sicurezza—in particolare, implementando il monitoraggio continuo, principi di privilegio minimo e controlli robusti e consapevoli dell'agente per contenere i rischi amplificati di uso improprio degli strumenti ed esfiltrazione di dati involontari.

                             

                            L'uso delle app cloud personali rappresenta un rischio significativo per le minacce interne collegamento collegamento

                            Finora, questo rapporto si è concentrato sui rischi aggiuntivi per la cybersecurity creati dalla rapida adozione della genAI. Per il resto di questo rapporto, sposteremo la nostra attenzione sui rischi legati legati, oltre ai quali sono stati aggiunti questi rischi New . In questa sezione ci concentriamo sull'uso delle app cloud personali, che continua a essere un fattore importante del rischio di esposizione ai dati degli insider. I dipendenti si affidano frequentemente agli account personali per comodità, collaborazione o accesso a strumenti di IA, e questo comportamento introduce sfide significative per le organizzazioni che cercano di proteggere le informazioni sensibili.

                            Il 60% degli incidenti di minaccia interna riguarda istanze di app cloud personali, con dati regolamentati, proprietà intellettuale, codice sorgente e credenziali che vengono spesso inviati alle app personali in violazione della politica dell'organizzazione. Sebbene il traffico verso le applicazioni cloud tramite account personali sia rimasto sostanzialmente invariato nell'ultimo anno, le organizzazioni hanno migliorato la loro postura difensiva. Il numero di organizzazioni che applicano controlli in tempo reale sui dati inviati alle app personali è passato dal 70% al 77%, riflettendo un crescente focus nel prevenire che dati sensibili fuoriamino in ambienti non gestiti. Il DLP è uno degli strumenti più popolari per ridurre i rischi legati all'uso delle app personali, utilizzato dal 63% delle organizzazioni. Questo è in contrasto con la genAI, dove solo il 50% delle organizzazioni utilizza il DLP per mitigare il rischio di esposizione indesiderata ai dati.

                            Le organizzazioni continuano a implementare una serie di misure per ridurre il rischio di esposizione ai dati attraverso applicazioni cloud personali e genAI. Queste strategie includono il blocco dei caricamenti su app personali, la fornitura di indicazioni in tempo reale per aiutare i dipendenti a gestire in sicurezza informazioni sensibili e l'utilizzo di soluzioni DLP per prevenire trasferimenti di dati non autorizzati verso servizi non gestiti.

                            Google Drive è l'app più frequentemente controllata, con il 43% delle organizzazioni che implementa protezioni in tempo reale, seguito da Gmail al 31% e OneDrive al 28%. Curiosamente, ChatGPT personale si posiziona quarto con il 28%, nonostante l'adozione diffusa, suggerendo che le organizzazioni stanno ancora recuperando la governance degli strumenti genAI rispetto alle piattaforme cloud tradizionali. Questi dati sottolineano gli sforzi in corso per limitare i movimenti non autorizzati di dati e mitigare i rischi associati all'uso di account personali su servizi non gestiti.

                            ""

                             

                            Violazioni della politica sui dati nelle applicazioni personali

                            Nell'ultimo anno, la percentuale di utenti che caricano dati su app cloud personali è aumentata del 21%. Oggi, il 31% degli utenti in media di un'organizzazione carica i dati su app cloud personali ogni mese. Questo è più del doppio del numero di utenti che interagiscono con app di IA ogni mese (15%). Sebbene non stia crescendo allo stesso ritmo dell'adozione dell'IA, il numero crescente di persone che inviano dati alle app cloud personali rappresenta un rischio crescente per la sicurezza dei dati.

                            Il 63% delle organizzazioni che utilizza DLP per monitorare e gestire il trasferimento di dati sensibili nelle app personali ci fornisce un'istantanea dei tipi di dati che gli utenti caricano in violazione della Politica dell'organizzazione. I dati regolamentati, inclusi dati personali, finanziari e sanitari, rappresentano il 54% delle violazioni delle politiche relative alle app cloud personali. In confronto, la proprietà intellettuale rappresenta il 22%, riflettendo il continuo rischio che informazioni proprietarie escano dagli ambienti approvati. Il codice sorgente rappresenta il 15% delle violazioni, mentre password e chiavi API rappresentano l'8%.

                            Guardando al 2026, i crescenti rischi derivanti dall'uso delle app cloud personali richiedono un focus strategico. Man mano che il numero di persone che inviano dati alle app personali continua a crescere, le organizzazioni dovrebbero assicurarsi di non distogliere l'attenzione dai rischi delle app personali quando si affrontano rischi emergenti dell'IA. Rafforzare la copertura DLP, migliorare l'istruzione dei dipendenti e applicare rigorosamente una politica chiara di gestione dei dati per contenere la crescente minaccia di esposizione accidentale e malevole dei dati può essere una strategia efficace per ridurre i rischi in entrambi i settori.

                            ""

                             

                            Il phishing rimane una sfida persistente collegamento collegamento

                            Le sezioni precedenti si sono concentrate principalmente sui rischi interni legati all'adozione dell'IA e all'uso delle app cloud personali nelle imprese. In questa sezione, spostiamo l'attenzione sugli avversari esterni e sui rischi continui che continuano a rappresentare per le organizzazioni in tutto il mondo. Inoltre, esploreremo le tendenze di phishing dell'ultimo anno. Le campagne di phishing rivolte agli ambienti cloud continuano a crescere in maggiore sofisticazione. Gli attaccanti si affidano sempre più a pagine di accesso contrafatte, applicazioni OAuth malevole e kit di phishing basati su reverse proxy, che rubano credenziali e cookie di sessione in tempo reale. Man mano che le organizzazioni spostano flussi di lavoro più critici verso applicazioni cloud, l'identità è diventata di fatto il perimetro New , rendendo il furto di credenziali delle app cloud uno dei modi più efficienti per la compromessa.

                            In modo incoraggiante, la suscettibilità degli utenti è leggermente diminuita nell'ultimo anno: i clic sui link di phishing sono passati da 119 ogni 10.000 utenti lo scorso anno a 87 ogni 10.000 utenti, un calo del 27%. Tuttavia, il phishing rappresenta ancora una quota significativa dei tentativi di accesso iniziale e resta difficile da mitigare completamente, come dimostra il numero considerevole di persone che continuano a cliccare sui link di phishing.

                            Anche l'imitazione del marchio continua a essere una tattica centrale. Microsoft è ora il marchio più falsificato con il 52% dei clic nelle campagne di phishing cloud, seguito da Hotmail (11%) e DocuSign (10%). Queste esche spesso imitano flussi di autenticazione o richieste di firma documentale per raccogliere credenziali o ottenere permessi di app sensibili.

                            ""

                            Una tendenza crescente è l'abuso del phishing con consenso OAuth, dove gli aggressori ingannano gli utenti facendogli concedere accesso a applicazioni cloud dannose, bypassando completamente password e autenticazione multifattore (MFA). Unito all'ascesa dei kit di dirottamento di sessione, il phishing sta passando da semplici inganni via email ad attacchi altamente tecnici a livello di identità che sfruttano il modo in cui le app cloud moderne si autenticano e mantengono gli utenti connessi. Le organizzazioni devono rafforzare il monitoraggio continuo delle sessioni, la protezione dei token e il rilevamento degli accessi anomali, invece di affidarsi esclusivamente all'addestramento degli utenti o ai filtri email.

                            Gli obiettivi di phishing sono cambiati notevolmente man mano che gli attaccanti seguono dove si trovano le credenziali di maggior valore. Sebbene le applicazioni cloud e SaaS restino bersagli frequenti, i portali bancari rappresentano ora il 23% delle esche di phishing osservate, riflettendo l'attenzione degli aggressori sulle frodi finanziarie e sul controllo dei conti. Anche i servizi governativi sono aumentati bruscamente al 21%, spinti dagli attaccanti che sfruttano portali di identità digitali e servizi ai cittadini per furto d'identità e frodi fiscali. Le suite di produttività cloud, le piattaforme di ecommerce e i social media continuano a completare i principali obiettivi, ma i sistemi finanziari e governativi sono ora al centro degli attacchi.

                            ""

                            Nonostante il recente calo della suscettibilità degli utenti, il rischio di phishing sottostante rimane criticamente alto, come dimostra il continuo volume di clic. Nel 2026, questa minaccia accelererà man mano che gli attaccanti utilizzeranno l'IA per creare esche e attacchi di livello identità più sofisticati e iperefficienti, e il calo sarà stato di breve durata. Il successo dipenderà dal fatto che le organizzazioni trattino l'identità come il perimetro New , continuando a garantire che strategie MFA robuste vengano utilizzate ovunque, ma anche integrando il monitoraggio continuo delle sessioni, la protezione dei token e un rilevamento robusto degli accessi anomali.

                             

                            Il malware continua a infiltrarsi nelle organizzazioni attraverso canali affidabili collegamento collegamento

                            L'ultimo livello del nostro modello di minaccia cumulativa all'inizio del 2026 è la persistenza di avversari esterni nell'abusare di canali affidabili e sfruttare flussi di lavoro familiari per ingannare le vittime e farle installare malware. Gli avversari abusano sempre più spesso di servizi cloud affidabili per distribuire malware, sapendo che gli utenti sono a proprio agio nell'interagire con piattaforme familiari. GitHub rimane il servizio più abusato, con il 12% delle organizzazioni che rileva ogni mese l'esposizione dei dipendenti a malware tramite l'applicazione, seguito da Microsoft OneDrive (10%) e Google Drive (5,8%). La loro ubiquità nella collaborazione e nello sviluppo software li rende canali ideali per diffondere file infetti prima che i fornitori possano rimuoverli.

                            Oltre alle minacce basate su file, il malware consegnato dal web continua a crescere in volume e sofisticazione. Le campagne moderne si affidano sempre più a componenti web dinamici e ingannevoli piuttosto che ai download tradizionali. Tecniche come le iniezioni basate su iframe incorporano frame nascosti che caricano silenziosamente JavaScript malevolo, abilitando reindirizzamenti automatici, esecuzione di script non autorizzata o download drive-by. Gli attaccanti utilizzano anche uploader falsi, che imitano flussi di lavoro legittimi per acquisire credenziali o consegnare payload, e pagine CAPTCHA false , che utilizzano elementi interattivi per convincere gli utenti ad abilitare script o bypassare le protezioni del browser.

                            Una preoccupazione crescente è l'emergere di malware assistito da LLM, in cui gli attaccanti utilizzano grandi modelli linguistici per generare codice malevolo adattabile o automatizzare l'offuscazione. Questo cambiamento consente cicli di sviluppo più rapidi e carichi utili più personalizzabili, sempre più difficili da rilevare e bloccare su larga scala.

                            ""

                            Gli attacchi alla catena di approvvigionamento software continuano a crescere mentre gli avversari prendono di mira sempre più le relazioni di fiducia tra servizi interconnessi, piattaforme SaaS ed ecosistemi di pacchetti. Un esempio recente è una New ondata di attività Shai-Hulud che ha colpito la supply chain dell'npm, dove pacchetti dannosi tentano di distribuire codice dannoso attraverso i flussi di lavoro degli sviluppatori.

                            Oltre agli ecosistemi di pacchetti, le integrazioni SaaS-SaaS sono emerse come un punto debole critico, con attaccanti che sfruttano le catene di fiducia API per muoversi lateralmente tra applicazioni cloud. In un caso di grande rilievo, Salesforce ha rilevato chiamate API sospette provenienti da indirizzi IP non autorizzati tramite integrazioni Gainsight, spingendo Salesforce a revocare i token di accesso associati, limitare la funzionalità e avviare un'indagine completa.

                            Un altro episodio degno di nota è stata la violazione di Salesloft tracciata come UNC6395, un attacco alla catena di approvvigionamento a più fasi identificato da Mandiant/Google. Gli attaccanti hanno abusato delle integrazioni inter-app non monitorate, in particolare di Salesloft Drift, illustrando come connettori SaaS compromessi possano diventare un canale invisibile per il furto di dati.

                            Insieme, questi episodi evidenziano una tendenza destinata a continuare anche nel 2026: gli attacchi alla catena di approvvigionamento sono passati dagli aggiornamenti software tradizionali al moderno cloud stack, prendendo di mira registri di pacchetti, pipeline di automazione ed ecosistemi SaaS interconnessi dove i controlli di sicurezza sono spesso frammentati o ciechi. Per contrastare questa tendenza, le organizzazioni devono dare priorità all'acquisizione di una visibilità profonda di queste relazioni di fiducia e a garantire che il loro stack di sicurezza possa difendersi dall'ampia gamma di tattiche che gli avversari utilizzano per eludere i controlli di sicurezza e ingannare le loro vittime.

                            Raccomandazioni collegamento collegamento

                            Il panorama della cybersecurity per il 2026 è definito fondamentalmente dagli strati cumulativi di complessità causati dalla rapida e spesso incontrollata adozione dell'IA generativa. Questa evoluzione non ha sostituito le minacce esistenti, ma ha piuttosto stratificato rischi Newintricati sopra. La sfida più immediata è l'aumento significativo dell'esposizione indesiderata ai dati. Contemporaneamente, l'emergere dei sistemi di IA agentiche, che eseguono azioni complesse e autonome su risorse interne, crea una vasta superficie di attacco New che amplifica il rischio interno e richiede una rivalutazione dei perimetri di sicurezza. Questa combinazione di minacce innovative guidate dall'IA e preoccupazioni legacy come phishing persistente e malware trasmessi tramite canali cloud affidabili significa che i team di sicurezza devono ora gestire un modello di minaccia additivo, rendendo essenziale per il prossimo anno il rafforzamento della supervisione, dei controlli DLP e di una postura di sicurezza consapevole dell'IA.

                            Sulla base delle tendenze emerse in questo rapporto, Netskope Threat Labs incoraggia fortemente le organizzazioni a riflettere sulla loro postura complessiva di sicurezza:

                            • Ispeziona tutti i download HTTP e HTTPS, inclusi tutti i traffici web e cloud, per evitare che malware possa infiltrarsi nella tua rete. I clienti Netskope possono configurare il loro Netskope One Next Gen Secure Web Gateway con una politica di protezione dalle minacce che si applica ai download di tutte le categorie e a tutti i tipi di file.
                            • Blocca l'accesso ad app che non svolgono alcun scopo commerciale legittimo o che rappresentano un rischio sproporzionato per l'organizzazione. Un buon punto di partenza è una politica che consenta le app affidabili attualmente in uso bloccando tutte le altre.
                            • Utilizzare DLP Policy per rilevare informazioni potenzialmente sensibili, tra cui codice sorgente, dati regolamentati, password e chiavi, proprietà intellettuale e dati crittografati, inviati a istanze di app personali, app genAI o altre posizioni non autorizzate.
                            • Utilizza la tecnologia Remote Browser Isolation (RBI) per ottenere una protezione aggiuntiva quando è necessario visitare siti web che rientrano in categorie che possono presentare un rischio maggiore, come domini appena osservati e appena registrati.

                             

                            Netskope Threat Labs collegamento collegamento

                            Grazie al personale dei più importanti ricercatori del settore in materia di minacce cloud e malware, Netskope Threat Labs scopre, analizza e progetta difese contro le più recenti minacce cloud che colpiscono le aziende. I nostri ricercatori sono relatori e volontari abituali alle principali conferenze sulla sicurezza, tra cui DefCon, BlackHat e RSA.

                             

                            Informazioni su questo rapporto collegamento collegamento

                            Netskope offre protezione contro le minacce a milioni di utenti in tutto il mondo. Le informazioni presentate in questo rapporto si basano su dati di utilizzo anonimizzati raccolti dalla piattaforma Netskope One.

                            Le statistiche in questo rapporto si basano sul periodo dal 1° ottobre 2024 al 31 ottobre 2025. Le statistiche riflettono le tattiche degli attaccanti, il comportamento degli utenti e le politiche dell'organizzazione.

                            Gioca a AI CyberSprint - Il gioco da corsa online definitivo