Evento di Lancio: Smart AI Security. Controllo Totale dei Dati. Prenota il tuo posto

chiudere
chiudere
La tua rete di domani
La tua rete di domani
Pianifica il tuo percorso verso una rete più veloce, sicura e resiliente, progettata per le applicazioni e gli utenti che supporti.
          Experience Netskope
          Prova direttamente la piattaforma Netskope
          Ecco la tua occasione per sperimentare in prima persona la piattaforma single-cloud di Netskope One. Iscriviti a laboratori pratici e a ritmo autonomo, unisciti a noi per dimostrazioni mensili di prodotti dal vivo, fai un test drive gratuito di Netskope Private Access o partecipa a workshop dal vivo guidati da istruttori.
            Un leader in SSE. Ora è un leader nel settore SASE a singolo fornitore.
            Netskope è riconosciuto come Leader Più Lontano in Visione sia per le piattaforme SSE che SASE
            2 volte leader nel Quadrante Magico di Gartner® per piattaforme SASE
            Una piattaforma unificata costruita per il tuo percorso
              Securing Generative AI for Dummies
              Securing Generative AI for Dummies
              Scopri come la tua organizzazione può bilanciare il potenziale innovativo dell'AI generativa con pratiche solide di sicurezza dei dati.
                eBook sulla Modern Data Loss Prevention (DLP) for Dummies
                Modern Data Loss Prevention (DLP) for Dummies
                Ricevi consigli e trucchi per passare a un DLP fornito dal cloud.
                  Modern SD-WAN for SASE Dummies Book
                  Modern SD-WAN for SASE Dummies
                  Smettila di inseguire la tua architettura di rete
                    Comprendere dove risiede il rischio
                    Advanced Analytics trasforma il modo in cui i team di operazioni di sicurezza applicano insight basati sui dati per implementare policy migliori. Con l'Advanced Analytics, puoi identificare tendenze, concentrarti sulle aree di interesse e utilizzare i dati per agire.
                        Supporto tecnico Netskope
                        Supporto tecnico Netskope
                        I nostri ingegneri di supporto qualificati sono dislocati in tutto il mondo e possiedono competenze diversificate in sicurezza cloud, networking, virtualizzazione, content delivery e sviluppo software, garantendo un'assistenza tecnica tempestiva e di qualità.
                          Video Netskope
                          Formazione Netskope
                          La formazione Netskope ti aiuterà a diventare un esperto di sicurezza cloud. Siamo qui per aiutarti a proteggere il tuo percorso di trasformazione digitale e a sfruttare al meglio le tue applicazioni cloud, web e private.

                            Le app di intelligenza artificiale, come ChatGPT, Grammarly e Google Bard, stanno rapidamente diventando sempre più popolari in ambito aziendale. Tuttavia, il loro utilizzo comporta il rischio di condividere accidentalmente informazioni sensibili. I dati sensibili condivisi più frequentemente su ChatGPT, la principale app di intelligenza artificiale, sono il codice sorgente. In media, un'organizzazione registra 183 casi di pubblicazione di codice sorgente su ChatGPT ogni 10.000 utenti aziendali al mese. Questo rapporto esamina il modo in cui le organizzazioni bilanciano i vantaggi degli strumenti di intelligenza artificiale gestendo al contempo i rischi associati, evidenziando una strategia sempre più diffusa che prevede DLP e coaching interattivo degli utenti.

                            9 minuti di lettura

                            Punti salienti del rapporto collegamento collegamento

                            • L'uso delle app di IA nelle aziende sta aumentando esponenzialmente, con un aumento del 22,5% negli ultimi due mesi.
                            • ChatGPT è l'app di IA più popolare nelle aziende e Google Bard è l'app di IA in più rapida crescita nel settore, entrambe con un ampio margine.
                            • Il codice sorgente viene pubblicato su ChatGPT più di qualsiasi altro tipo di dato sensibile, a un ritmo di 158 incidenti ogni 10.000 utenti aziendali al mese.
                            • Gli aggressori stanno creando truffe di app di IA e siti di phishing per cercare di sfruttare l'hype che circonda ChatGPT.
                            • DLP e user coaching sono i tipi di controllo più diffusi che le aziende utilizzano per abilitare l'uso delle app di intelligenza artificiale, impedendo al contempo l'esposizione di dati sensibili.

                            Sommario esecutivo collegamento collegamento

                            La conversazione sull'IA spesso ruota attorno a questioni esistenziali, come le potenziali opportunità e le minacce che l'IA potrebbe portare all'umanità. Eppure, le organizzazioni di tutto il mondo e i loro leader si trovano ad affrontare una preoccupazione più immediata: come possono utilizzare le app di IA in modo sicuro e protetto?

                            Le organizzazioni si impegnano a sfruttare le applicazioni di IA per migliorare le operazioni, migliorare l'esperienza dei clienti e facilitare decisioni basate sui dati. La chiave è farlo garantendo sicurezza e protezione. Tuttavia, il principale ostacolo di sicurezza risiede nel modo in cui alcuni utenti potrebbero utilizzare queste applicazioni.

                            Prendiamo ad esempio ChatGPT, che può essere usato per esaminare il codice sorgente alla ricerca di vulnerabilità di sicurezza o assistere nell'editing dei contenuti scritti. ChatGPT è stato usato per modificare proprio questo riassunto esecutivo. Inevitabilmente, alcuni individui caricano codice sorgente proprietario o testi contenenti dati regolamentati o proprietà intellettuale. La sfida sta nel scoraggiare tali comportamenti senza ostacolare la produttività dell'organizzazione più ampia. Un blocco totale delle applicazioni di IA potrebbe risolvere questo problema, ma lo farà a scapito dei potenziali benefici offerti dalle app di IA.

                            Mentre continuiamo a essere circondati dall'entusiasmo per le possibilità dell'intelligenza artificiale, è evidente che ChatGPT e altre app di intelligenza artificiale sono sulla buona strada per diventare pilastri portanti delle aziende. Tra i clienti di Netskope, la loro popolarità sta crescendo in modo esponenziale e si prevede che raddoppierà nei prossimi sette mesi se continuerà a crescere al ritmo attuale. Questo rapporto approfondisce la crescente importanza delle applicazioni di intelligenza artificiale nelle aziende, delinea i rischi associati, tra cui perdite di dati e potenziali attività di aggressori, e propone strategie per integrare in modo sicuro ChatGPT e altri strumenti di intelligenza artificiale nel contesto aziendale.

                            App di IA in crescente popolarità collegamento collegamento

                            Il numero di utenti che accedono alle app di intelligenza artificiale in ambito aziendale sta crescendo in modo esponenziale. Negli ultimi due mesi, la percentuale di utenti aziendali che accedono ad almeno un'app di intelligenza artificiale al giorno è aumentata del 2,4% a settimana, per un aumento totale del 22,5% nello stesso periodo di tempo. Al tasso di crescita attuale, il numero di utenti che accedono alle app di intelligenza artificiale raddoppierà entro i prossimi sette mesi. Nello stesso periodo di tempo, il numero di app di intelligenza artificiale utilizzate nelle aziende è rimasto stabile: le organizzazioni con più di 1.000 utenti hanno utilizzato in media 3 diverse app di intelligenza artificiale al giorno, mentre le organizzazioni con più di 10.000 utenti hanno utilizzato in media 5 app di intelligenza artificiale al giorno. Alla fine di giugno, 1 utente aziendale su 100 interagiva ogni giorno con un'app di intelligenza artificiale.

                            La popolarità delle app di IA in base al numero di utenti enterprise

                            L'app di intelligenza artificiale aziendale di gran lunga più popolare è ChatGPT, con oltre 8 volte il numero di utenti attivi giornalieri rispetto a qualsiasi altra app di intelligenza artificiale. ChatGPT è stato al centro di grande clamore negli ultimi sei mesi ed è anche molto versatile, il che probabilmente contribuisce alla sua popolarità. La seconda app più popolare è Grammarly, che si concentra esclusivamente sull'assistenza alla scrittura. Bard, il chatbot di Google, si posiziona subito dopo Grammarly. Tutte le altre app di intelligenza artificiale messe insieme (ne stiamo monitorando più di 60, tra cui Jasper, Chatbase e Copy.ai) sono meno popolari di Google Bard.

                            Le app di intelligenza artificiale più popolari in base alla percentuale degli utenti giornalieri totali di intelligenza artificiale

                            Negli ultimi due mesi, l'app di intelligenza artificiale in più rapida crescita nel settore aziendale è stata Google Bard. Sebbene sia ancora molto indietro rispetto a ChatGPT in termini di popolarità, Google Bard sta attualmente aggiungendo utenti a un tasso del 7,1% a settimana, rispetto all'1,6% di ChatGPT. Ai ritmi attuali, Google Bard è destinato a raggiungere ChatGPT in poco più di un anno. Tuttavia, poiché il settore delle app di intelligenza artificiale è molto dinamico, prevediamo che in quel periodo si verificheranno molti altri cambiamenti che sconvolgeranno gli attuali tassi di crescita.

                            Netskope Threat Labs monitora la popolarità delle app di intelligenza artificiale negli ambienti aziendali, anziché la popolarità complessiva delle app tra i consumatori. Ad esempio, mentre la popolarità di ChatGPT è salita alle stelle tra i consumatori prima di raffreddarsi a giugno, la sua adozione in ambito aziendale è stata più misurata e continua ad aumentare in modo esponenziale. Il resto del rapporto evidenzia alcune delle ragioni dell'aumento misurato, tra cui i rischi di fuga di dati e i controlli sul loro utilizzo.

                            Le app di intelligenza artificiale in più rapida crescita per numero di utenti attivi giornalieri aggiunti settimanalmente

                            Rischi dell'IA - Dati sensibili collegamento collegamento

                            Questo segmento si concentra su ChatGPT, la principale app di intelligenza artificiale aziendale con un ampio margine. Un utente medio di ChatGPT interagisce con l'app pubblicando 6 prompt al giorno. Il livello di attività varia da utente a utente, con il 10% più alto che pubblica 22 prompt e il 1% più alto che ne pubblica 68 al giorno. Per ogni 10.000 utenti, un'organizzazione può aspettarsi circa 660 prompt giornalieri su ChatGPT. Ma la vera domanda risiede nel contenuto di questi prompt: sono interrogazioni innocue o rivelano involontariamente dati sensibili?

                            Uno studio di Netskope ha rivelato che il codice sorgente è il tipo di dato sensibile più frequentemente esposto, con 22 utenti aziendali su 10.000 che pubblicano codice sorgente su ChatGPT ogni mese. In totale, quei 22 utenti sono responsabili di una media di 158 post contenenti codice sorgente al mese. Questa tendenza non è del tutto inaspettata, considerando la capacità di ChatGPT di rivedere e spiegare il codice e individuare bug e vulnerabilità di sicurezza. Sebbene questi servizi siano vantaggiosi, condividere il codice sorgente riservato con ChatGPT introduce rischi tra cui potenziali violazioni di dati, divulgazioni accidentali e rischi legali e normativi.

                            Utenti che pubblicano dati sensibili per 10.000 mila utenti aziendali al mese

                            Rispetto al codice sorgente, i post contenenti altre forme di dati sensibili sono relativamente meno comuni. Per ogni 10.000 utenti aziendali, si verificano in genere 18 casi di condivisione di dati regolamentati (tra cui dati finanziari, informazioni sanitarie e informazioni di identificazione personale) su base mensile. La proprietà intellettuale (escluso il codice sorgente) è ancora più rara, con una media di 4 incidenti al mese ogni 10.000 utenti. È interessante notare che tra i tipi di dati sensibili condivisi figurano anche password e chiavi, solitamente incorporate nel codice sorgente. Nonostante la sua relativa infrequenza (circa 4 incidenti ogni 10.000 utenti al mese), questa pratica serve da promemoria fondamentale per gli ingegneri del software sui rischi legati all'inserimento di segreti nel codice sorgente.

                            Episodi di utenti che pubblicano dati sensibili per 10.000 mila utenti aziendali al mese

                            Attaccanti opportunisti collegamento collegamento

                            Con tutto il clamore che circonda ChatGPT e le app di intelligenza artificiale in generale, non sorprende che truffatori, criminali informatici e altri aggressori tentino di sfruttare questa pubblicità per ottenere guadagni illeciti. Questa è una pratica comune tra gli aggressori. Ad esempio, il rapporto Netskope Threat Labs su cloud e minacce della primavera 2023 ha evidenziato gli aggressori che hanno tentato di trarre profitto dalla guerra russo-ucraina, dal terremoto in Turchia e Siria e dal crollo della Silicon Valley Bank. L'entusiasmo e la popolarità di ChatGPT attirano l'attenzione di aggressori e truffatori a causa dell'ampio bacino di utenti e del potenziale di profitto, uniti alle diverse competenze degli utenti sulla piattaforma.

                            Nel corso della prima metà del 2023, Netskope Threat Labs ha monitorato numerose campagne di phishing, campagne di distribuzione di malware e siti web di spam e frode che cercavano di sfruttare l'entusiasmo per ChatGPT. Netskope Threat Labs sta addirittura monitorando diversi proxy ChatGPT, siti che sembrano offrire il vantaggio di un accesso gratuito e non autenticato al chatbot, ma al costo di rivelare tutti i tuoi prompt e le tue risposte all'operatore del proxy.

                            Un proxy ChatGPT in cui l'operatore proxy vede tutti i prompt e le risposte

                            Un proxy ChatGPT in cui l'operatore proxy vede tutti i prompt e le risposte

                            In totale, Netskope Threat Labs sta attualmente tracciando oltre 1.000 URL e domini dannosi che cercano di sfruttare l'hype su ChatGPT e sull'IA. Il solo numero ricorda l'importanza di adottare un approccio multilivello per proteggere gli utenti dagli attaccanti che cercano di sfruttare l'hype e la popolarità che circondano qualsiasi evento o tendenza significativa. Tale approccio dovrebbe includere il filtraggio del dominio, il filtraggio degli URL e l'ispezione dei contenuti per proteggere sia da attacchi noti che da quelli sconosciuti.

                            Controllo aziendale collegamento collegamento

                            Sebbene all'inizio ChatGPT stesse guadagnando popolarità, una pratica comune per le aziende era quella di bloccare completamente il chatbot, da allora le organizzazioni hanno accettato il fatto che ChatGPT e altre app di intelligenza artificiale possono offrire vantaggi all'organizzazione, tra cui il miglioramento delle operazioni, il miglioramento dell'esperienza dei clienti e la facilitazione del processo decisionale basato sui dati. Invece di bloccare ChatGPT, le organizzazioni sono passate a un modello più permissivo che in genere include una combinazione di DLP e coaching dell'utente. La DLP può essere utilizzata per identificare dati potenzialmente sensibili pubblicati su app di intelligenza artificiale, tra cui ChatGPT, e il coaching dell'utente può lasciare all'utente la decisione finale se procedere o meno con una richiesta.

                            Organizzazioni che inseriscono controlli su ChatGPT

                            I controlli specifici su ChatGPT variano a seconda del settore industriale. Nel complesso, le aziende di servizi finanziari, sanità e tecnologia hanno guidato l'implementazione dei controlli su ChatGPT. Tuttavia, l'approccio adottato per ogni settore varia notevolmente. Nei servizi finanziari e sanitari, entrambi settori altamente regolamentati, quasi 1 organizzazione su 5 ha implementato un divieto totale. Nessun utente può utilizzare ChatGPT. Nel settore tecnologico, solo 1 organizzazione su 20 ha implementato un divieto totale. Invece, 1 organizzazione su 4 utilizza controlli DLP per rilevare tipi specifici di informazioni sensibili (in particolare codice sorgente) pubblicate su ChatGPT. Inoltre, 1 organizzazione tecnologica su 5 implementa il coaching utente in tempo reale per ricordare agli utenti la politica aziendale e i rischi associati a ChatGPT e ad altre app di intelligenza artificiale. In definitiva, sempre più organizzazioni adotteranno nel tempo controlli DLP e il coaching utente in tempo reale per consentire l'uso di app di IA come ChatGPT, proteggendo al contempo dall'esposizione indesiderata dei dati.

                            Tipo di controlli ChatGPT per settore verticale

                            Raccomandazioni collegamento collegamento

                            Consentire l'adozione sicura delle app di intelligenza artificiale in azienda è una sfida dalle molteplici sfaccettature. Si tratta di identificare le app consentite e di implementare controlli che consentano agli utenti di utilizzarle al massimo delle loro potenzialità, salvaguardando al contempo l'organizzazione dai rischi. Questa sezione include raccomandazioni tecniche generali per le organizzazioni che intendono abilitare in modo sicuro le app di intelligenza artificiale. Per informazioni più dettagliate su come Netskope può aiutarti, consulta il documento informativo sulla soluzione ChatGPT e Generative AI Data Protection.

                            → Esaminare regolarmente l'attività, le tendenze, i comportamenti e la sensibilità dei dati delle app di intelligenza artificiale per identificare i rischi per l'organizzazione.

                            → Bloccare l'accesso alle app che non servono a scopi aziendali legittimi o che rappresentano un rischio sproporzionato. Un buon punto di partenza è una politica che consenta l'uso delle app affidabili attualmente in uso, bloccando tutte le altre.

                            → Utilizzare la Politica DLP per rilevare post contenenti informazioni potenzialmente sensibili, inclusi codice sorgente, dati regolamentati, password e chiavi, e proprietà intellettuale.

                            → Utilizzare il coaching in tempo reale degli utenti (combinato con DLP) per ricordare loro la politica aziendale relativa all'uso delle app di intelligenza artificiale al momento dell'interazione.

                            Blocca gli aggressori opportunisti che tentano di sfruttare la crescente popolarità delle app di intelligenza artificiale bloccando domini e URL dannosi noti e ispezionando tutti i contenuti HTTP e HTTPS.

                            → Utilizzare la tecnologia Remote Browser Isolation (RBI) per fornire ulteriore protezione quando è necessario visitare siti Web appartenenti a categorie che possono presentare un rischio più elevato, come domini appena osservati e appena registrati.

                            → Garantire che tutte le difese di sicurezza condividano informazioni e collaborino per semplificare le operazioni di sicurezza. I clienti Netskope possono utilizzare Cloud Exchange per condividere IOC, importare informazioni sulle minacce, esportare event log, automatizzare flussi di lavoro e scambiare punteggi di rischio.

                            Informazioni su questo rapporto collegamento collegamento

                            Netskope Threat Labs pubblica trimestralmente un Rapporto Cloud e Minacce per evidenziare un insieme specifico di sfide di cybersecurity. Lo scopo di questo rapporto è fornire visibilità sui rischi di cybersecurity presentati dalle app di IA e su come le organizzazioni stiano gestendo tali rischi. L'analisi presentata in questo rapporto si basa su uno studio condotto da milioni di utenti provenienti da migliaia di organizzazioni in tutto il mondo, per il periodo che va dal 1° maggio 2023 al 30 giugno 2023. Le statistiche riflettono le tattiche degli attaccanti, il comportamento degli utenti e le politiche dell'organizzazione. Le informazioni presentate in questo rapporto si basano su dati di utilizzo anonimizzati raccolti dalla piattaforma Netskope One relativi a un sottoinsieme di clienti Netskope con autorizzazione preventiva.

                            Netskope Threat Labs collegamento collegamento

                            Grazie al personale dei più importanti ricercatori del settore in materia di minacce cloud e malware, Netskope Threat Labs scopre, analizza e progetta difese contro le più recenti minacce web, cloud e dati che colpiscono le aziende. I nostri ricercatori sono relatori e volontari abituali alle principali conferenze sulla sicurezza, tra cui DEF CON, Black Hat e RSA.