L'intelligenza artificiale ha avuto un impatto enorme sul panorama delle notizie nel 2023, e gran parte del rumore ha contribuito a erodere la fiducia nella tecnologia nascente. Tra le fake news sull'intelligenza artificiale e le fake news generate dall'intelligenza artificiale, le organizzazioni mediatiche di tutto il mondo (e i loro lettori) hanno mostrato un enorme interesse per i contenuti dubbi.
Per valutare la portata della questione, Netskope ha classificato finora le notizie false AI più diffuse del 2023, in base a opinioni sociali, coinvolgimento, articoli, portata e autorità, al fine di determinarne l'impatto su ciascuna. Questi dati sono stati messi a confronto con ricerche che mostrano la falsa fiducia che il pubblico britannico e americano ha nella loro capacità di individuare storie false di IA.
Oltre alle crescenti preoccupazioni su ChatGPT e alla domanda sempre più frequente "ChatGPT è sicuro?", un'altra preoccupazione emergente riguardo all'intelligenza artificiale è l'effetto che l'intelligenza artificiale ha sulle fake news. Il grafico a sinistra mostra come le "fake news sull'intelligenza artificiale" siano un argomento di tendenza su X (Twitter).
Noi di Netskope abbiamo studiato fino a che punto le storie false più virali sull'intelligenza artificiale siano arrivate sulle pubblicazioni di notizie e sui social media e quanto tempo ci è voluto prima che queste storie venissero rivelate come false.
Citazioni di fake news sull'intelligenza artificiale su Twitter
Abbiamo valutato finora le storie di fake news più diffuse del 2023, basate su opinioni social, coinvolgimento, articoli, portata e autorità, per determinarne l'impatto.
Al primo posto c'è un'immagine di Papa Francesco che indossa un oversize biscotto imballato, una delle storie di fake news più leggere che abbiamo incontrato. Questa storia del Papa che indossava abiti urbani alla moda era così credibile e adorabile da accumulare oltre 20 milioni di visualizzazioni sui social ed essere coperta da 312 testate mediatiche.
In secondo posto ci sono le false immagini IA di Donald Trump arrestato nel centro di Washington DC a marzo di quest'anno. Sebbene Donald Trump sia stato poi arrestato nella realtà, queste immagini convincenti hanno anticipato l'arresto e sono state create dal generatore di immagini IA, Midjourney. Sono diventati virali su X (Twitter) con oltre 10 milioni di visualizzazioni, e sono stati coperti da 671 testate mediatiche – il doppio rispetto a quelle che hanno seguito la storia del Papa.
I generatori di immagini basati sull'intelligenza artificiale (IA) come DALL-E e Midjourney stanno diventando sempre più popolari, vantando finora milioni di New utenti. I programmi, facili da usare, consentono a chiunque di creare New immagini tramite prompt di testo e i risultati sono spesso così realistici che persino gli editori di notizie fanno fatica a distinguere tra immagini fittizie e realtà. Queste immagini falsificate dominano il nostro grafico: 14 storie su 15 sono guidate da esse.
Al terzo posto c'è l'unica storia guidata da immagini non generate dall'IA; la simulazione riportata di un drone IA che uccide il suo operatore umano. Questa storia è stata coperta dal maggior numero di pubblicazioni, con 1.689 articoli di copertura. L'autorità media dei siti che coprivano la storia era inferiore e, di conseguenza, la copertura totale combinata delle pubblicazioni è stata di 1,3 milioni.
I social network permettono alla diffusione rapida della disinformazione generata dall'IA. Le storie possono essere condivise all'istante, rendendo difficile capire se provengono da una fonte affidabile. La più grande notizia falsa finta finora su X (Twitter) è il Papa che indossa una giacca imbottita bianca oversize, che ha superato i 20 milioni di visualizzazioni sul social network.
C'è solo una notizia che ha raggiunto più persone sui social media. Questo non è stato ottenuto tramite X (Twitter) ma tramite la piattaforma video TikTok. Un video falsificato dall'IA della democratica Hillary Clinton che sostiene il repubblicano Ron DeSantis alla presidenza ha generato quasi 840 milioni di visualizzazioni su TikTok e altre 877.000 su X (Twitter).
È difficile distinguere ciò che è reale da ciò che è frutto dell'intelligenza artificiale, quindi credere a una storia inventata è un errore sempre più comune e comprensibile. Ma quali sono le fake news che hanno convinto più a lungo gli editori?
Analizzando la data di pubblicazione originale dalla fonte principale per determinare quanto tempo ci è voluto per rimuovere o correggere la storia, si è rivelato che il tempo medio necessario per correggere una storia falsa con IA è di 6 giorni. Un video montato dall'IA di un'intervista giornalistica australiana con Bill Gates ha convinto gli editori di più a lungo, ovvero 15 giorni. Il video manomesso suggerisce erroneamente che Gates abbia interrotto bruscamente un'intervista con la giornalista della Australian Broadcasting Corporation (ABC) News Sarah Ferguson dopo aver ricevuto domande sul suo coinvolgimento nella distribuzione del vaccino contro il COVID-19.
La storia successiva che ha richiesto più tempo per essere corretta è stata la simulazione di un drone dotato di intelligenza artificiale che uccide il suo operatore umano. Durante un vertice, il capo dei test di intelligenza artificiale dell'aeronautica militare statunitense, il colonnello Tucker Hamilton, ha dichiarato che il drone si è rivolto al suo operatore per impedirgli di interferire con la sua missione. Questa storia non era un'immagine o un video falsificato, ma una disinformazione sulle capacità dell'intelligenza artificiale. I tempi per questa correzione sono stati prolungati a causa della risposta tardiva dell'Aeronautica Militare, che ha dichiarato che l'incidente era ipotetico.
Abbiamo intervistato oltre 1.000 membri del pubblico statunitense e altri 500 nel Regno Unito sopra i 18 anni - tutti i quali hanno specificato di usare i social media e di essere interessati alle notizie - per saperne di più sulla fiducia del pubblico nel gestire storie false generate dall'IA. Quando è stato chiesto quale fosse la loro piattaforma più affidabile per le notizie, giornali e tabloid sono stati votati tra i primi eventi. Sorprendentemente, le piattaforme social basate su video come TikTok e Snapchat sono arrivate al secondo posto, dimostrando la loro enorme influenza e l'importanza di regolamentare la disinformazione su queste piattaforme.
All'ultimo posto si sono classificate le piattaforme di social media tradizionali come Instagram, Twitter e Facebook. Ciò dimostra la consapevolezza del pubblico circa l'inaffidabilità delle informazioni qui reperite.
Oltre l' 80% dei partecipanti alla ricerca nel Regno Unito ha affermato di essere in grado di individuare una notizia falsa, mentre i partecipanti negli Stati Uniti erano ancora più sicuri delle proprie capacità, attestandosi all'88%. Tuttavia, quando è stata mostrata una notizia falsa sull'intelligenza artificiale insieme a una vera, il 44% degli intervistati nel Regno Unito ha creduto che la notizia falsa fosse vera. Questa percentuale è ancora più alta per i cittadini statunitensi: la metà di loro ha risposto in modo errato.
Abbiamo suddiviso i dati per regione nel Regno Unito e negli Stati Uniti per identificare se alcune regioni sono più vulnerabili ai falsi generati dall'intelligenza artificiale.
Nel Regno Unito, nonostante la sua reputazione per il cinismo mondano, la Grande Londra ha avuto maggiori difficoltà a identificare le fake news generate dall'IA (il 64% ha risposto male) e ha avuto il maggior numero di risposte errate, pari al 64%. Nel Sud-Est dell'Inghilterra, i punteggi sono stati quasi invertiti, con il 63% che ha individuato correttamente il falso.
L'Arkansas è stato incoronato lo stato degli Stati Uniti più suscettibile, con il 67% che ha scelto la storia sbagliata, seguito dalla Carolina del Nord con il 62%. Al contrario, solo il 20% di coloro che si trovano in Indiana ha risposto in modo errato, incoronando lo stato come il più esperto di fake news con IA.
Sebbene le immagini falsificate esistano da quando la fotografia è l'obiettivo spesso nefasto, è l'obiettivo spesso nefasto che New nell'era moderna. Mentre si afferma di aver fotografato fate in giardino o di un mostro nel Loch Ness che non abbia danneggiato nessuno, oggi i criminali informatici e i gruppi politici usano immagini generate dall'IA per influenzare l'opinione pubblica e persino estorcere denaro alle vittime. I criminali informatici stanno già usando immagini e contenuti falsi generati dall'IA per ingannare le persone e farle consegnare informazioni personali e segreti aziendali, e persino per convincere le persone che i loro cari sono stati rapiti, portando a pagamenti di riscatto.
Con l'IA che avanza rapidamente, può sembrare un compito impossibile distinguere tra la verità e la falsità dell'IA, e una politica di zero trust ti aiuterà a verificare prima di fidarti di qualsiasi cosa. Ecco i nostri consigli principali per evitare di essere ingannati.
Se vedi un titolo relativo all'intelligenza artificiale che pubblicizza progressi stravaganti, oppure un'immagine o un video che sembra improbabile, controlla prima la fonte. Se il contenuto è sui social media, i commenti potrebbero contenere informazioni sulla sua origine. Per le immagini, puoi effettuare una ricerca inversa utilizzando Google Reverse Image Search, TinEye o Yandex. La ricerca dell'origine può rivelare ulteriore contesto e verifiche dei fatti effettuate da editori affidabili.
Ingrandi l'immagine e controlla eventuali errori. Ingrandire l'immagine rivelerà scarsa qualità o dettagli errati – entrambi segni evidenti di un'immagine generata dall'IA.
Controlla le proporzioni dell'immagine. un errore frequente nelle immagini IA sono le proporzioni e le quantità di parti del corpo e altri oggetti. Mani, dita, denti, orecchie e occhiali sono spesso deformati e contengono quantità sbagliate.
C'è qualcosa di strano nello sfondo? Se un'immagine è stata alterata o fabbricata, gli elementi utilizzati sullo sfondo risultano spesso deformati, utilizzati più volte e privi di dettagli.
L'immagine appare liscia o priva di imperfezioni? Con le immagini AI, alcuni aspetti che normalmente sarebbero molto dettagliati vengono spesso levigati e perfezionati, come pelle, capelli e denti. I volti sono impeccabili e i tessuti sono molto armoniosi.
I dettagli sembrano corretti? Le incongruenze nella logica dell'immagine possono essere un segno evidente della generazione dell'IA. Forse la colorazione di qualcosa di piccolo come gli occhi non corrisponde tra immagini diverse, oppure un motivo può cambiare leggermente?
L'immagine video è piccola? Come per le immagini, un'immagine video piccola indica che è stato utilizzato un software di IA 'deepfake' che può fornire solo un video falso a una risoluzione molto bassa.
I sottotitoli sono posizionati in modo strano? Con i video finti, i sottotitoli sono spesso posizionati strategicamente per coprire i volti, rendendo più difficile per gli spettatori notare il deepfake poco convincente, dove l'audio spesso non corrisponde ai movimenti delle labbra.
Ci sono forme delle labbra disallineate? Le forme delle labbra disallineate presenti nelle cornici sono un segno evidente di manipolazione, con il confine della regione giuntata visibile vicino al centro delle bocche.
Seguendo questi consigli potrai identificare le storie falsificate. Tuttavia, con il progredire dell'intelligenza artificiale, New versioni di programmi come Midjourney stanno diventando sempre più efficaci nel generare immagini di qualità superiore. Ciò significa che gli utenti potrebbero non essere in grado di individuare questo tipo di errori ancora per molto.
Abbiamo discusso dell'impatto delle immagini e delle storie generate da IA false, ma sapete di cosa è capace l'IA? Scopri quanto sei abile nel riconoscere le fake news sullo sviluppo dell'IA con questo quiz. Contenenti 12 titoli reali e falsi sullo sviluppo dell'IA, cerca di capire cosa è vero e cosa è falso.












Netskope SkopeAI per GenAI è una soluzione autonoma che può essere aggiunta a qualsiasi stack di sicurezza, permettendo ai team IT di abilitare in sicurezza l'uso di app di IA generativa come ChatGPT e Bard, con controllo di accesso alle applicazioni, coaching utente in tempo reale e protezione dei dati di prim'ordine.
La nostra architettura SASE combina il leader di mercato Intelligent Security Service Edge con la nuova generazione Borderless SD-WAN per fornire una soluzione cloud-nativa e completamente convergente che supporta i principi zero trust. Netskope Zero Trust Network Access (ZTNA) offre un accesso rapido, sicuro e diretto ad applicazioni private ospitate ovunque, per ridurre i rischi, semplificare l'IT e ottimizzare l'esperienza utente.
Le storie analizzate sono state raccolte e collaborate da una serie di siti di fact checking come Snopes, Reuters e Channel 4.
Buzzsumo e Brandwatch sono stati utilizzati per identificare la fonte della disinformazione determinata dai fact-checker per misurare costantemente la portata dei contenuti.
Google News è stato utilizzato per raccogliere copertura indicizzata dal web e estrapolare le stime di visualizzazione.
Coveragebook veniva utilizzato per determinare il pubblico stimato, il coinvolgimento social e la copertura collegata relativa a fake news selezionate con IA.
Facebook, X (Twitter) e Archive.is venivano utilizzati per raccogliere contenuti di fake news basati sull'IA.
Il sondaggio d'opinione è stato condotto su 501 intervistati britannici, 1005 intervistati statunitensi che hanno specificato di usare i social media e di avere interesse per le notizie, di età 18+.