Evento di Lancio: Smart AI Security. Controllo Totale dei Dati. Prenota il tuo posto

chiudere
chiudere
La tua rete di domani
La tua rete di domani
Pianifica il tuo percorso verso una rete più veloce, sicura e resiliente, progettata per le applicazioni e gli utenti che supporti.
Experience Netskope
Prova direttamente la piattaforma Netskope
Ecco la tua occasione per sperimentare in prima persona la piattaforma single-cloud di Netskope One. Iscriviti a laboratori pratici e a ritmo autonomo, unisciti a noi per dimostrazioni mensili di prodotti dal vivo, fai un test drive gratuito di Netskope Private Access o partecipa a workshop dal vivo guidati da istruttori.
Un leader in SSE. Ora è un leader nel settore SASE a singolo fornitore.
Netskope è riconosciuto come Leader Più Lontano in Visione sia per le piattaforme SSE che SASE
2 volte leader nel Quadrante Magico di Gartner® per piattaforme SASE
Una piattaforma unificata costruita per il tuo percorso
Securing Generative AI for Dummies
Securing Generative AI for Dummies
Scopri come la tua organizzazione può bilanciare il potenziale innovativo dell'AI generativa con pratiche solide di sicurezza dei dati.
eBook sulla Modern Data Loss Prevention (DLP) for Dummies
Modern Data Loss Prevention (DLP) for Dummies
Ricevi consigli e trucchi per passare a un DLP fornito dal cloud.
Modern SD-WAN for SASE Dummies Book
Modern SD-WAN for SASE Dummies
Smettila di inseguire la tua architettura di rete
Comprendere dove risiede il rischio
Advanced Analytics trasforma il modo in cui i team di operazioni di sicurezza applicano insight basati sui dati per implementare policy migliori. Con l'Advanced Analytics, puoi identificare tendenze, concentrarti sulle aree di interesse e utilizzare i dati per agire.
Supporto tecnico Netskope
Supporto tecnico Netskope
I nostri ingegneri di supporto qualificati sono dislocati in tutto il mondo e possiedono competenze diversificate in sicurezza cloud, networking, virtualizzazione, content delivery e sviluppo software, garantendo un'assistenza tecnica tempestiva e di qualità.
Video Netskope
Formazione Netskope
La formazione Netskope ti aiuterà a diventare un esperto di sicurezza cloud. Siamo qui per aiutarti a proteggere il tuo percorso di trasformazione digitale e a sfruttare al meglio le tue applicazioni cloud, web e private.

L'adozione di GenAI è in forte espansione, con app SaaS di IA, piattaforme GenAI, infrastrutture di IA on-premises e ora agenti di IA personalizzati che diventano pilastri aziendali. Le tendenze New , tra cui infrastrutture di intelligenza artificiale on-premise, piattaforme genAI e custom agent, introducono ulteriori rischi di dati e sicurezza per l'organizzazione, restando anche in gran parte sotto il radar dei team di sicurezza. Questo rapporto ti aiuterà a fare luce sull'infrastruttura di shadow AI nella tua organizzazione, permettendoti di iniziare a mitigare tali rischi.

18 minuti di lettura

Introduzione collegamento collegamento

Questo è il nostro quarto Netskope Cloud and Threat Report dedicato al campo emergente dell'intelligenza artificiale generativa. Il nostro primo report del 2023 ha evidenziato la crescita esponenziale della popolarità di ChatGPT in ambito aziendale. Il nostro secondo report del 2024 ha evidenziato che quasi tutte le aziende utilizzavano app SaaS genAI e implementavano policy per proteggere i dati sensibili. Il nostro rapporto più recente ha proseguito su questa linea narrativa, introducendo al contempo i concetti di IA ombra, utilizzo indiretto dell'IA gen e IA locale. Questa New puntata esamina le tendenze emergenti nell'ambito dell'intelligenza artificiale ombra e dell'intelligenza artificiale agentica all'interno delle aziende, dove alcuni utenti si stanno orientando verso piattaforme genAI e soluzioni on-premise mentre creano app personalizzate e agenti autonomi, creando una New serie di sfide per la sicurezza informatica.

Questo rapporto si concentra sull'intelligenza artificiale ombra e sull'intelligenza artificiale agentica, esplorando come le organizzazioni possono far luce sulle ombre lungo il percorso. Iniziamo esaminando le app SaaS genAI, in cui osserviamo ancora una quantità considerevole di shadow AI. Si sta delineando una chiara tendenza alla centralizzazione, con le organizzazioni che gravitano verso pochi ecosistemi chiave gestiti dall'azienda, in particolare Gemini e Copilot. Tuttavia, la maggior parte degli utenti (60%) utilizza ancora app personali e non gestite, che rappresentano una quantità significativa di intelligenza artificiale ombra che continua a estendersi alle New app man mano che vengono rilasciate.

Continuiamo con le piattaforme genAI, come Azure OpenAI, Amazon Bedrock e Google Vertex AI, che stanno rapidamente guadagnando popolarità grazie alla loro semplicità, flessibilità, personalizzazione e scalabilità. Consentono agli utenti di creare applicazioni o agenti personalizzati utilizzando i modelli da loro scelti. E forse la cosa più importante è che offrono alcune garanzie di sicurezza e privacy che le differenziano da molte app SaaS e soluzioni on-prem. In questa fase, l'adozione delle piattaforme genAI è guidata da individui che sperimentano una tecnologia relativamente New , rendendo le piattaforme genAI la categoria di intelligenza artificiale ombra in più rapida crescita.

Anche l'esecuzione di infrastrutture di intelligenza artificiale in sede è una tendenza in crescita: gli utenti installano strumenti come Ollama per fornire un'interfaccia a un'ampia gamma di modelli o utilizzano framework come LangChain per creare agenti personalizzati, creando così New infrastruttura di intelligenza artificiale shadow in sede. L'intelligenza artificiale on-premise sta crescendo a un ritmo più lento rispetto alle piattaforme genAI, poiché queste ultime sono più accessibili e offrono una migliore sicurezza standard, come approfondiremo più avanti in questo rapporto.

Concludiamo il rapporto esaminando l'area degli agenti IA, che sono sistemi che utilizzano l'IA per raggiungere un obiettivo specifico con un intervento umano minimo. Questo è un ambito in cui stiamo iniziando a vedere un'attività significativa nell'azienda, con utenti che esplorano una varietà di framework per agenti, sia on-premises che nel cloud, e costruiscono ancora più shadow AI strettamente intrecciata con i dati aziendali e i flussi di lavoro critici.

 

Attrazioni collegamento collegamento

  • L'IA Shadow rappresenta la maggior parte dell'uso dell'IA nelle aziende, guidata dall'adozione individuale di app SaaS AI, piattaforme di IA, implementazioni di IA on-premises e ora agenti AI personalizzati.
  • L'uso dell'IA SaaS continua a crescere rapidamente all'interno dell'organizzazione media, con il 50% in più di persone che interagiscono con le app di IA e il 6,5% in più di dati caricati sulle app SaaS AI negli ultimi tre mesi, con una media di 8,2 GB per organizzazione al mese.
  • ChatGPT ha registrato il suo primo calo di popolarità in ambito aziendale da quando abbiamo iniziato a monitorarlo nel 2023, poiché l'uso dell'intelligenza artificiale SaaS si sta consolidando attorno a soluzioni appositamente progettate, come Gemini e Copilot, che sono ben integrate con i flussi di lavoro aziendali esistenti.
  • Le piattaforme di IA (ad esempio, Amazon Bedrock, Azure OpenAI e Google Vertex AI) stanno rapidamente guadagnando popolarità, permettendo agli utenti di creare app e agenti personalizzati che interagiscono direttamente con i dati store aziendali, presentando New sfide shadow AI da affrontare per le aziende.
  • Gli agenti AI vengono sviluppati, testati e distribuiti on-premises utilizzando framework per agenti come LangChain, creando un tipo di IA ombra particolarmente impegnativo New , poiché le implementazioni on-premises sono tipicamente le più difficili da scoprire e da proteggere.

 

Definizioni collegamento collegamento

  • I framework degli agenti sono librerie e strumenti software che semplificano la creazione di agenti AI autonomi fornendo componenti predefiniti per la pianificazione, la memoria e l'integrazione degli strumenti (ad esempio, LangChain, OpenAI Agent Framework).
  • L'IA agentica si riferisce a sistemi in cui un agente può pianificare ed eseguire autonomamente una serie di azioni per raggiungere un obiettivo di alto livello, completando compiti complessi senza una guida umana passo dopo passo.
  • Le piattaforme GenAI sono servizi cloud gestiti che forniscono i modelli fondamentali, gli strumenti e l'infrastruttura per costruire, personalizzare, addestrare e distribuire modelli, applicazioni e agenti di IA (ad esempio, Amazon Bedrock, Azure OpenAI, Google Vertex AI).
  • Le interfacce LLM sono applicazioni front-end che consentono agli utenti di interagire con gli LLM e sono in genere utilizzate in locale (ad esempio, Ollama, LM Studio).
    Le app SaaS genAI sono applicazioni appositamente realizzate e ospitate nel cloud che utilizzano genAI come funzionalità principale per creare New contenuti o riassumere contenuti esistenti (ad esempio, ChatGPT, Gemini, Copilot).

 

Crescita continua delle app SaaS genAI collegamento collegamento

L'adozione delle app SaaS genAI continua a crescere vertiginosamente nelle aziende. Sebbene la percentuale di organizzazioni che utilizzano app SaaS genAI abbia raggiunto un livello di stallo, con l'89% delle organizzazioni che utilizza attivamente almeno un'app SaaS genAI, la crescita dell'adozione di SaaS genAI continua a manifestarsi in molteplici modi all'interno dell'azienda. In primo luogo, il numero di persone che utilizzano app SaaS genAI all'interno di ciascuna organizzazione è aumentato di oltre il 50%, con una media del 7,6% di persone in ciascuna organizzazione che utilizzava app SaaS genAI a maggio, rispetto al 5% di febbraio (come mostrato nella figura seguente). La figura mostra anche il primo e il terzo quartile, con il terzo quartile che evidenzia che il 25% delle organizzazioni ha più di un quarto (25,6%) della propria popolazione di utenti che utilizza attivamente app SaaS genAI. Nel 90° percentile (non illustrato), almeno il 47% della popolazione di utenti di queste organizzazioni utilizza app SaaS genAI.

Diagramma che mostra la percentuale mediana degli utenti GenAI al mese con l'area ombreggiata che mostra il 1° e il 3° quartili

In secondo luogo, il numero di app genAI in uso continua a crescere, raggiungendo una media di 7 per organizzazione, rispetto alle 5,6 di febbraio. Abbiamo visto una crescita simile nel terzo quartile, dove le organizzazioni ora utilizzano 15,4 app, rispetto ai 13,3 di febbraio. Abbiamo previsto questa crescita nel nostro rapporto di febbraio perché, poiché investimenti aggressivi nelle startup di IA si traducono nel rilascio di molte app di IA New SaaS , creando un uso ancora più ombra dell'IA che deve essere scoperto e protetto. Oggi, Netskope sta monitorando oltre 1.550 distinte applicazioni di IA generativa SaaS , in aumento rispetto alle sole 317 di febbraio, indicando il rapido ritmo con cui New app vengono rilasciate e adottate negli ambienti aziendali.

Diagramma che mostra le app GenAI per mediana dell'organizzazione con area ombreggiata che mostra il 1° e il 3° quartile

Il terzo modo in cui la crescita delle app SaaS genAI si manifesta nelle aziende è nella quantità di dati che confluiscono in queste app. Per un'organizzazione media, la quantità di dati caricati ogni mese è aumentata del 6,5%, passando da 7,7 GB a 8,2 GB negli ultimi tre mesi. Al 75° percentile, l'aumento è stato ancora più significativo, passando da 20 GB a 22,8 GB (un aumento del 14%). Al 90° percentile, il modello continua, con un aumento del 15% da 46 GB a 53 GB. Al ritmo attuale, prevediamo che il 90° percentile supererà i 100 GB nel terzo trimestre del 2026. Anche nelle organizzazioni in cui una quantità significativa di dati viene già caricata su app SaaS genAI, la rapida crescita continua senza accennare a rallentare. Come illustrato nel nostro precedente rapporto sull'intelligenza artificiale generativa, i dati che gli utenti caricano nelle app genAI includono proprietà intellettuale, dati regolamentati, codice sorgente e segreti, il che sottolinea l'importanza di identificare l'uso di SaaS ombra da parte di genAI e di implementare controlli per prevenire perdite di dati indesiderate.

Un altro cambiamento degno di nota verificatosi negli ultimi quattro mesi è la diminuzione del numero di organizzazioni che utilizzano ChatGPT. Dalla sua introduzione nel novembre 2022, la percentuale di organizzazioni che utilizzano ChatGPT non è mai diminuita. A febbraio abbiamo segnalato che quasi l'80% delle organizzazioni utilizzava ChatGPT, percentuale che ora è leggermente scesa al 78%. Questa diminuzione si verifica mentre Gemini e Copilot (Microsoft Copilot, Microsoft 365 Copilot, GitHub Copilot) continuano a guadagnare terreno, grazie alla loro perfetta integrazione negli ecosistemi di prodotti Google e Microsoft, già onnipresenti nelle aziende. ChatGPT è stata l'unica tra le prime 10 app a registrare un calo da febbraio, come mostrato nella figura sottostante. Anche le altre 10 app più gettonate, tra cui Anthropic Claude, Perplexity AI, Grammarly e Gamma, hanno registrato un incremento nell'adozione da parte delle aziende.

Diagramma che mostra le app più popolari per percentuale di organizzazioni

Un altro cambiamento degno di nota rispetto al nostro ultimo rapporto è che Grok sta rapidamente guadagnando popolarità, entrando per la prima volta nella top 10 a maggio. Curiosamente, Grok ora è contemporaneamente nella top 10 per le app più usate (nella foto sopra) e anche nella top 10 per le app più bloccate (nella foto sotto). Rispetto a febbraio, meno organizzazioni bloccano Grok e lo permettono invece per casi d'uso specifici (di solito personali). Il numero di organizzazioni che bloccano Grok ha raggiunto il picco ad aprile ed è in calo mentre il numero di utenti di Grok continua a crescere. Questo avviene mentre le organizzazioni stanno optando per controlli più dettagliati, utilizzando DLP e il coaching utente in tempo reale per evitare che dati sensibili vengano inviati a Grok. Detto ciò, i blocchi superano ancora in numero i permessi, con il 25% delle organizzazioni che blocca tutti i tentativi di usare Grok a maggio, mentre solo l'8,5% delle organizzazioni vede un po' di utilizzo di Grok. Questa non è una tendenza insolita, poiché le organizzazioni tendono a bloccare inizialmente le New app mentre effettuano revisioni di sicurezza e implementano controlli per limitarne l'uso. D'altra parte, ci sono alcune app SaaS genAI, come DeepSeek, che rimangono fortemente bloccate e quindi non subiscono un uso significativo nelle imprese.

Diagramma della maggior parte delle app di IA bloccate per percentuale di organizzazioni che hanno imposto un divieto totale sull'app

Shadow AI è un termine relativamente New che descrive l'uso di soluzioni IA senza la conoscenza o l'approvazione dei dipartimenti IT e di cybersecurity centralizzati. Nei primi tempi, quasi il 100% dell'uso della GenAI SaaS era shadow AI. Col tempo, le organizzazioni hanno iniziato a rivedere e approvare specifiche soluzioni aziendali (tipicamente ChatGPT, Gemini o Copilot), e gli utenti sono passati a quelle soluzioni approvate. La politica di coaching in tempo reale che ricorda agli utenti che utilizzano una soluzione non approvata di passare a una soluzione approvata è stata fondamentale in questa transizione. Questi controlli continuano a essere efficaci, con solo il 60% della popolazione aziendale che utilizza app personali SaaS genAI a maggio, una diminuzione di 12 punti percentuali rispetto a febbraio. Prevediamo che questa tendenza continui nei prossimi mesi, con il tasso che scende sotto il 40% entro la fine dell'anno. Allo stesso tempo, sono emerse New sfide shadow AI (piattaforme genAI, genAI on-premises e agenti AI), che esploreremo più nel dettaglio nelle sezioni successive.

Diagramma che mostra la ripartizione dell'utilizzo di GenAI tra account personali e aziendali

Per i lettori interessati a scoprire l'estensione dell'uso dell'IA ombra SaaS nei loro ambienti, Netskope monitora oltre 1.550 diverse applicazioni SaaS generative AI. I clienti di Netskope possono identificare l'IA ombra cercando qualsiasi attività di app classificata come "IA generativa" e concentrandosi su app non approvate e login personali. Sebbene bloccare le app non approvate possa essere una strategia efficace, le Politiche di coaching degli utenti sono un modo più sfumato per indirizzare gli utenti lontano da soluzioni non approvate e verso quelle gestite e approvate dall'azienda. Tali Politiche sono spesso abbinate a Politiche DLP per mitigare i rischi di fuga di dati sensibili verso app SaaS GenAI non approvate, come dettagliato nel nostro precedente Rapporto Cloud e Minacce.

 

Crescente adozione delle piattaforme genAI collegamento collegamento

Mentre le app SaaS genAI hanno guadagnato popolarità per la loro facilità d'uso, le piattaforme genAI stanno ora guadagnando popolarità grazie alla loro flessibilità e ai vantaggi in termini di privacy. La loro flessibilità deriva dal fatto che è possibile distribuire in modo rapido e semplice i modelli desiderati utilizzando un'unica interfaccia. I vantaggi in termini di privacy derivano dal fatto che sei tu a ospitare i modelli e a non condividere i tuoi dati con terze parti. Allo stesso tempo, il modello di responsabilità condivisa in una piattaforma genAI sposta maggiormente la responsabilità della sicurezza sull'utente rispetto a una soluzione SaaS.

L'uso delle piattaforme genAI sta aumentando vertiginosamente. Negli ultimi tre mesi abbiamo visto un aumento del 50% nel numero di utenti e un incremento del 73% del traffico di rete su queste piattaforme. A maggio, il 41% delle organizzazioni utilizza almeno una piattaforma genAI, mentre il 14% ne utilizza almeno due e il 2,7% ne utilizza almeno tre. Uno dei motivi dietro la proliferazione di molteplici soluzioni è che l'adozione delle piattaforme genAI è un altro problema ombra dell'IA; Le persone scelgono i framework con cui sono più familiari o che sembrano più adatti ai loro specifici casi d'uso. Utilizzare una piattaforma genAI è quasi accessibile quanto l'uso di un'app SaaS genAI, dato che i principali fornitori di servizi cloud hanno tutti le loro offerte. La piattaforma genAI più popolare è Microsoft Azure OpenAI, utilizzata dal 29% delle organizzazioni. Amazon Bedrock segue da vicino con il 22%, con Google Vertex AI al lontano terzo posto con il 7,2%. Tutte e tre le piattaforme stanno guadagnando popolarità man mano che più utenti le conoscono ed esplorano le opportunità che offrono.

Diagramma che mostra l'adozione dei framework cloud AI in base alla percentuale di organizzazioni

La rapida crescita dell'intelligenza artificiale ombra impone all'organizzazione di identificare chi sta creando l'infrastruttura cloud genAI utilizzando piattaforme genAI, dove la sta realizzando e se sta seguendo le best practice per la sicurezza dell'intelligenza artificiale. Una delle potenti funzionalità di queste piattaforme genAI è che consentono la connessione diretta degli archivi dati aziendali alle applicazioni di intelligenza artificiale, il che richiede ulteriori revisioni e monitoraggi per garantire che queste applicazioni non compromettano la sicurezza dei dati aziendali. I clienti di Netskope possono ottenere informazioni su chi utilizza questi strumenti e come li utilizza esaminando i loro registri per ciascuna di queste piattaforme genAI per nome. Sapere chi li utilizza e come li utilizza è il primo passo per garantirne un utilizzo sicuro.

 

Crescente adozione di genAI on-premise collegamento collegamento

Un'altra pratica che sta guadagnando popolarità è l'uso di genAI in sede. L'utilizzo di genAI in sede assume molteplici forme, che vanno dall'utilizzo di risorse GPU in sede per addestrare o ospitare modelli allo sviluppo di strumenti in sede che interagiscono con applicazioni genAI SaaS o piattaforme genAI. L'utilizzo di genAI a livello locale è un buon modo per le organizzazioni di sfruttare gli investimenti in risorse GPU esistenti o di creare strumenti che interagiscono con sistemi e set di dati locali. Tuttavia, l'implementazione in sede implica anche che l'organizzazione sia l'unica responsabile della sicurezza della propria infrastruttura genAI. Inoltre, è ormai essenziale comprendere e applicare framework come OWASP Top 10 for Large Language Model Applications o Mitre Atlas .

Uno dei modi più diffusi per utilizzare GenAI localmente è distribuire un'interfaccia LLM. Similmente alle piattaforme genAI, le interfacce LLM permettono l'interazione con vari modelli utilizzando un'unica interfaccia. Le interfacce LLM non sono diffuse quanto le piattaforme genAI, con solo il 34% delle organizzazioni che utilizza interfacce LLM rispetto al 41% che usa piattaforme genAI. Ollama è il framework più popolare di gran lunga e rappresenta anche un eccellente esempio di una delle principali differenze di sicurezza tra lavorare on-premises e su una piattaforma genAI: Ollama non include alcuna autenticazione integrata. Quindi, se stai usando Ollama, devi implementarlo dietro un proxy inverso o una soluzione di accesso privato con meccanismi di autenticazione appropriati per proteggerti da usi non autorizzati. Inoltre, mentre le piattaforme genAI tipicamente forniscono una protezione AI per proteggere dall'abuso dei modelli stessi, chi utilizza framework come Ollama deve adottare misure aggiuntive per prevenire abusi e abusi impropri. Rispetto a Ollama, altre interfacce LLM, tra cui LM Studio e Ramalama, hanno una base utenti enterprise molto più piccola.

Diagramma che mostra le principali interfacce LLM in base alla percentuale di organizzazioni

A causa delle crescenti preoccupazioni di sicurezza legate all'uso delle interfacce di IA, le organizzazioni dovrebbero lavorare proattivamente per identificare chi le utilizza e dove vengono impiegate. I clienti Netskope possono identificare l'uso di interfacce LLM popolari tramite le loro stringhe User-Agent nei log delle transazioni. Ad esempio, le stringhe User-Agent delle tre interfacce principali iniziano con ollama, LM Studio, e llama-cpp.

Un altro modo per scoprire chi sta sperimentando strumenti di intelligenza artificiale è monitorare l'accesso ai marketplace di intelligenza artificiale, come Hugging Face. Hugging Face è una community molto popolare per la condivisione di strumenti di intelligenza artificiale, modelli di intelligenza artificiale e set di dati. Gli utenti scaricano risorse da Hugging Face nel 67% delle organizzazioni. Sebbene la popolazione di utenti che lo fa sia piccola (in media solo lo 0,3%), identificare questi utenti è fondamentale per scoprire l'intelligenza artificiale ombra, poiché potrebbero implementare l'infrastruttura di intelligenza artificiale in sede o nel cloud. Inoltre, poiché Hugging Face è una piattaforma comunitaria progettata per facilitare la condivisione, le organizzazioni devono essere consapevoli dei rischi della catena di fornitura associati alle risorse scaricate da questa piattaforma. Oltre agli evidenti rischi di codice dannoso incorporato negli strumenti, su Hugging Face vengono comunemente condivisi alcuni formati di file ad alto rischio (come Python Pickles, vulnerabili ad attacchi pericolosi di esecuzione di codice arbitrario). I clienti di Netskope possono identificare gli utenti di Hugging Face cercando l'app "Hugging Face" nei loro registri. Dovrebbero verificare che le risorse scaricate da Hugging Face siano coperte dalla loro Politica di protezione dalle minacce .

 

Agenti AI collegamento collegamento

Mentre l'utilizzo delle app SaaS genAI si sta consolidando attorno ad app appositamente progettate e ben integrate con i flussi di lavoro aziendali esistenti (ad esempio Gemini e Copilot), sta emergendo un'altra tendenza che abbraccia le app SaaS AI, le piattaforme genAI e l'utilizzo dell'AI in sede: gli agenti AI. Un agente di intelligenza artificiale è un sistema incaricato di un obiettivo specifico e dotato di una certa autonomia per raggiungerlo senza richiedere l'interazione dell'utente. Grazie soprattutto ai progressi nei modelli di base, stiamo iniziando a vedere una massa critica di utenti in diverse organizzazioni che creano agenti di intelligenza artificiale e utilizzano le funzionalità agentiche delle soluzioni SaaS. Ad esempio, GitHub Copilot (utilizzato nel 39% delle organizzazioni) offre una modalità agente, in cui è possibile fornire un'attività di codifica e l'agente modificherà iterativamente il codice e lo testerà finché non riterrà di aver raggiunto l'obiettivo (o raggiunto un altro criterio di arresto). Ci sono due caratteristiche degne di nota di un agente AI:

  1. Ha accesso ad alcuni dati che appartengono all'organizzazione.
  2. Può eseguire alcune azioni in modo autonomo.

Nel caso di GitHub Copilot, ha accesso al tuo codice sorgente e può eseguire i comandi necessari per compilare ed eseguire tale codice all'interno della tua infrastruttura. Queste due caratteristiche degli agenti di intelligenza artificiale sottolineano l'importanza di garantire che il loro utilizzo sia adeguatamente protetto per proteggere dati e infrastrutture sensibili.

Una delle opzioni per creare agenti AI è utilizzare uno dei tanti framework per agenti disponibili. In totale, il 5,5% delle organizzazioni ha utenti che utilizzano agenti creati con i più popolari framework di agenti AI on-premises. Tra questi framework, LangChain è il più popolare di gran lunga (esiste da ottobre 2022), mentre OpenAI Agent Framework sta rapidamente guadagnando popolarità (appena stato rilasciato a marzo 2025). Sebbene esistano molti altri framework disponibili, nessuno di essi ha ancora visto un'adozione significativa da parte delle imprese. Pydantic-ai, al terzo posto, è utilizzata in 3 organizzazioni su 1000. Gli agenti AI on-premises rappresentano un rischio significativo di shadow AI perché sono altamente accessibili (facili da costruire ed eseguire), spesso hanno accesso a dati sensibili e possono eseguire codice in modo autonomo. Le organizzazioni dovrebbero lavorare proattivamente per identificare gli utenti che creano e utilizzano agenti di IA on-premises.

Diagramma che mostra i principali framework per agenti in percentuale di organizzazioni

Sebbene l'agente venga eseguito in locale, i modelli di intelligenza artificiale su cui si basa possono essere eseguiti ovunque, anche in SaaS, piattaforme genAI o ambienti in locale. Quando gli agenti on-premise accedono ai servizi SaaS, in genere accedono a endpoint API diversi rispetto al browser. Ad esempio, le conversazioni con ChatGPT di OpenAI nel browser andranno a chatgpt.com, mentre l'interazione programmatica con i modelli di OpenAI andrà a api.openai.com. La figura seguente mostra i principali domini API delle app SaaS AI in base alla percentuale di organizzazioni che li utilizzano. L'interpretazione dei dati è la seguente: il 66% delle organizzazioni ha utenti che effettuano chiamate API ad api.openai.com, indicando una certa interazione non tramite browser con i servizi OpenAI. Questa interazione potrebbe avvenire tramite strumenti di terze parti, strumenti personalizzati o agenti di intelligenza artificiale. In questo senso, OpenAI ha un vantaggio significativo rispetto agli altri servizi SaaS e, data la rapida crescita della popolarità di OpenAI Agent Framework, prevediamo che questa tendenza si intensificherà nei prossimi mesi.

Diagramma che mostra i 10 principali domini API SaaS AI in base alla percentuale di organizzazioni

I clienti Netskope possono identificare chi utilizza i framework agenti più popolari cercando nei loro log le stringhe User-Agent rilevanti. Ad esempio, i tre principali framework hanno stringhe User-Agent che iniziano con langchain, Agents/Python, e pydantic-ai. Possono trovare interazioni non legate al browser con applicazioni di IA SaaS cercando nei loro log di transazioni i domini rilevanti. Le stringhe User-Agent e i nomi dei processi forniranno indizi sulla natura dell'interazione. Più in generale, i clienti di Netskope dovrebbero cercare qualsiasi interazione GenAI proveniente da esterno al browser web.

Un'altra opzione per costruire agenti AI è usare una delle piattaforme genAI. Per questa discussione, ci concentreremo specificamente su Amazon Bedrock, poiché fornisce endpoint di servizio distinti per gestire modelli, gestire agenti, effettuare richieste di inferenza ai modelli e invocare agenti. In precedenza in questo rapporto, abbiamo riportato che il 22% delle organizzazioni utilizza Amazon Bedrock. Analizzando ulteriormente questo numero, troviamo che tutto il 22% lo utilizza per gestire i modelli ed eseguire inferenze contro i modelli, mentre il 14% lo usa per sviluppare, distribuire o invocare agenti. Abbiamo anche affermato in precedenza in questa sezione che il 5,5% delle organizzazioni gestisce agenti AI on-premises, il che significa che 2,5 volte più organizzazioni utilizzano Amazon Bedrock per gli agenti AI rispetto agli agenti on-local.

Perché framework come Bedrock sono più popolari per l'intelligenza artificiale agentica rispetto ai framework on-premise?

  • Semplificano lo sviluppo, soprattutto per chi è già investito nell'ecosistema AWS.
  • Riducono i costi operativi perché sono un servizio gestito.
  • Offrono la scalabilità integrata di una piattaforma IaaS matura.

In altre parole, un ambiente stabile e gestito con sicurezza e supporto integrati è più attraente per le organizzazioni rispetto alla necessità di gestire tutti questi aspetti in modo indipendente. Sulla base delle tendenze attuali, prevediamo che nei prossimi mesi questo divario si amplierà, con un numero ancora maggiore di organizzazioni che preferiranno le piattaforme genAI rispetto alle soluzioni on-premise. Le soluzioni on-premise continueranno ad avere senso per alcune organizzazioni, in particolare quelle con casi d'uso specifici ad alto volume, prevedibili, continui e a lungo termine, in cui le soluzioni on-premise potrebbero essere più convenienti. E, naturalmente, chiunque all'interno dell'organizzazione può iniziare a sviluppare e utilizzare agenti in sede durante lo sviluppo o per uso personale, il che sottolinea la necessità per le organizzazioni di monitorare costantemente l'intelligenza artificiale ombra.

Gli utenti di Netskope che desiderano scoprire chi utilizza Amazon Bedrock per distribuire o richiamare gli agenti devono cercare nei propri registri delle transazioni i domini di build-time di Bedrock (bedrock-agent.*.amazonaws.com) e i domini di runtime di Bedrock (bedrock-agent-runtime.*.amazonaws.com).

Una prospettiva CISO collegamento collegamento

Per gestire efficacemente i rischi per la sicurezza dei dati posti dal crescente utilizzo delle tecnologie di intelligenza artificiale generativa, i CISO e i responsabili della sicurezza dovrebbero implementare le seguenti linee guida pratiche:

  1. Valuta il tuo panorama genAI:
    • Identificare l'utilizzo: determinare quali applicazioni SaaS genAI, piattaforme genAI e strumenti genAI ospitati localmente sono in uso nella tua organizzazione.
    • Identificazione dell'utente: Individua chi utilizza questi strumenti e come vengono sfruttati all'interno dei diversi reparti e flussi di lavoro.
  2. Potenzia i controlli dell'app genAI:
    • App approvate: stabilire e applicare una politica che consenta solo l'uso di applicazioni genAI approvate dall'azienda.
    • Blocca le app non approvate: implementa solidi meccanismi di blocco per impedire l'uso di app genAI non approvate.
    • DLP per dati sensibili: utilizzare la politica di prevenzione della perdita di dati (DLP) per impedire che dati sensibili vengano condivisi con applicazioni genAI non autorizzate.
    • Coaching utente in tempo reale: implementa il coaching utente in tempo reale per guidare gli utenti verso soluzioni approvate e istruirli sulle pratiche di genAI sicure. Confrontare regolarmente questi controlli con le migliori pratiche del settore.
  3. Inventaria l'infrastruttura locale di genAI:
  4. Monitoraggio e consapevolezza continui:
    • Monitorare l'uso di GenAI: Implementa un monitoraggio continuo dell'uso di genAI all'interno della tua organizzazione per rilevare New istanze shadow AI, sia tramite app SaaS , piattaforme genAI o implementazioni on-premises.
    • Rimani informato: Rimani aggiornato sugli New sviluppi nell'etica dell'IA, i cambiamenti normativi e gli attacchi avversariali per modificare proattivamente la tua postura di sicurezza.
  5. Comprendere e proporre il rischio dell'intelligenza artificiale ombra agentica:
    • Dipendente non verificato: L'IA shadow agentica è come una persona che entra nel tuo ufficio ogni giorno, gestisce dati, agisce sui sistemi, e tutto questo senza essere controllata dai precedenti o con monitoraggio della sicurezza.
    • Stabilire linee guida: stabilire linee guida per l'organizzazione e i suoi membri. Utilizza le rilevazioni descritte in questo rapporto per identificare coloro che stanno guidando l'adozione dell'intelligenza artificiale agentiva e collaborare con loro per sviluppare una politica, uno standard o una linea guida realistica e attuabile.

Adottando queste misure proattive, le organizzazioni possono gestire efficacemente le sfide in continua evoluzione presentate dalle tecnologie genAI e garantirne un'adozione sicura e responsabile.

 

Netskope Threat Labs collegamento collegamento

Grazie al personale dei più importanti ricercatori del settore in materia di minacce cloud e malware, Netskope Threat Labs scopre, analizza e progetta difese contro le più recenti minacce cloud che colpiscono le aziende. I nostri ricercatori sono relatori e volontari abituali alle principali conferenze sulla sicurezza, tra cui DefCon, BlackHat e RSA.

 

Informazioni su questo rapporto collegamento collegamento

Netskope offre protezione contro le minacce a milioni di utenti in tutto il mondo. Le informazioni presentate in questo rapporto si basano su dati di utilizzo anonimizzati raccolti dalla piattaforma Netskope One relativi a un sottoinsieme di clienti Netskope con autorizzazione preventiva.

Questo rapporto contiene informazioni sulle rilevazioni sollevate dal Netskope One Next Generation Secure Web Gateway (NG-SWG), senza considerare l'importanza dell'impatto di ogni singola minaccia. Le statistiche in questo rapporto si basano sul periodo dal 1° febbraio 2025 al 31 maggio 2025. Le statistiche riflettono le tattiche degli attaccanti, il comportamento degli utenti e le politiche dell'organizzazione.