Puoi
Individuare fake news sull'IA?

L'intelligenza artificiale ha avuto un impatto enorme sul panorama delle notizie nel 2023, e gran parte del rumore ha contribuito a erodere la fiducia nella tecnologia nascente. Tra le fake news sull'intelligenza artificiale e le fake news generate dall'intelligenza artificiale, le organizzazioni mediatiche di tutto il mondo (e i loro lettori) hanno mostrato un enorme interesse per i contenuti dubbi.

Per valutare la portata della questione, Netskope ha classificato finora le notizie false AI più diffuse del 2023, in base a opinioni sociali, coinvolgimento, articoli, portata e autorità, al fine di determinarne l'impatto su ciascuna. Questi dati sono stati messi a confronto con ricerche che mostrano la falsa fiducia che il pubblico britannico e americano ha nella loro capacità di individuare storie false di IA.

Le fake news generate dall'IA stanno diventando sempre più comuni

Oltre alle crescenti preoccupazioni su ChatGPT e alla domanda sempre più frequente "ChatGPT è sicuro?", un'altra preoccupazione emergente riguardo all'intelligenza artificiale è l'effetto che l'intelligenza artificiale ha sulle fake news. Il grafico a sinistra mostra come le "fake news sull'intelligenza artificiale" siano un argomento di tendenza su X (Twitter).

Noi di Netskope abbiamo studiato fino a che punto le storie false più virali sull'intelligenza artificiale siano arrivate sulle pubblicazioni di notizie e sui social media e quanto tempo ci è voluto prima che queste storie venissero rivelate come false.

Citazioni di fake news sull'intelligenza artificiale su Twitter

12 luglio - Data di lancio a metà viaggio
22 ottobre - Fake news durante le elezioni in Brasile
1 maggio - Truffe telefoniche indiane che utilizzano chatbot e intelligenza artificiale

Le 15 principali storie false generate dall'intelligenza artificiale

Abbiamo valutato finora le storie di fake news più diffuse del 2023, basate su opinioni social, coinvolgimento, articoli, portata e autorità, per determinarne l'impatto.

Al primo posto c'è un'immagine di Papa Francesco che indossa un oversize biscotto imballato, una delle storie di fake news più leggere che abbiamo incontrato. Questa storia del Papa che indossava abiti urbani alla moda era così credibile e adorabile da accumulare oltre 20 milioni di visualizzazioni sui social ed essere coperta da 312 testate mediatiche.

In secondo posto ci sono le false immagini IA di Donald Trump arrestato nel centro di Washington DC a marzo di quest'anno. Sebbene Donald Trump sia stato poi arrestato nella realtà, queste immagini convincenti hanno anticipato l'arresto e sono state create dal generatore di immagini IA, Midjourney. Sono diventati virali su X (Twitter) con oltre 10 milioni di visualizzazioni, e sono stati coperti da 671 testate mediatiche – il doppio rispetto a quelle che hanno seguito la storia del Papa.

I generatori di immagini basati sull'intelligenza artificiale (IA) come DALL-E e Midjourney stanno diventando sempre più popolari, vantando finora milioni di New utenti. I programmi, facili da usare, consentono a chiunque di creare New immagini tramite prompt di testo e i risultati sono spesso così realistici che persino gli editori di notizie fanno fatica a distinguere tra immagini fittizie e realtà. Queste immagini falsificate dominano il nostro grafico: 14 storie su 15 sono guidate da esse.

Al terzo posto c'è l'unica storia guidata da immagini non generate dall'IA; la simulazione riportata di un drone IA che uccide il suo operatore umano. Questa storia è stata coperta dal maggior numero di pubblicazioni, con 1.689 articoli di copertura. L'autorità media dei siti che coprivano la storia era inferiore e, di conseguenza, la copertura totale combinata delle pubblicazioni è stata di 1,3 milioni.

TitoloOpinioni socialiContenuti socialImpegni socialiCopertura totaleVisualizzazioni stimatePubblico Combinato di PubblicazioniImpegno nella coperturaAutorità di pubblicazione Media
(su 100)
Punteggio totale
L'immagine di Papa Francesco che indossa un oversize bibottino imbottito è generata dall'IA20,800,00036491,9103126,610,0001,880,000,00049,20086
66
Immagini che sembrano mostrare l'arresto di Donald Trump create dall'intelligenza artificiale10,200,00040122,1356718,380,0001,860,000,00092,90086
63
Secondo l'Aeronautica Militare, la simulazione di un drone AI che uccide il suo operatore umano era ipoteticaN/A1,806162,4381,6891,330,000645,000,00012,50075
45
Le foto delle 'mogli robot' di Elon Musk sono generate dall'IAN/A183,951481,840,000721,000,00050,90071
22
Il video di Hillary Clinton che sostiene Ron DeSantis è generato dall'IA840,577,000279791484,44043,565,18021552
20
Il video mostra deepfake di Elon Musk10,500,00016030,624152453,000175,000,0003,44090
18
L'immagine di Elon Musk e Mary Barra che si tengono per mano è generata dall'intelligenza artificiale14,200,00065943215,00087,200,000991
16
Immagine che presume mostrare la foto segnaletica di Donald Trump generata da IA6,46740122,13557691,900105,000,00014078
11
La "foto recente" di Julian Assange è stata generata dall'intelligenza artificiale5,300,000134039269,00088,100,00055475
10
Le immagini di hotel a tema satanico sono arte artificiale; non mostrano un'attività commerciale aperta in Texas143,90014384247,000121,00020,60082
9
Le immagini condivise come prime viste del campo di detriti subacquei di Titano sono state inventate 354,500184,432171,061,1801,101,211,30040873
9
L'immagine di Tom Cruise con le controfigure è generata dall'intelligenza artificiale1,300,000411,59424757,000464,000,00037888
8
La collezione di 'abbigliamento satanico' di Target non è reale, è generata dall'IAN/A621,17113475,000148,000,00050178
8
Video di un'intervista giornalistica australiana con Bill Gates montato con IA41,100228289178,00078,700,00027286
6
L'immagine di Emmanuel Macron davanti al fuoco è generata dall'IA55,000162,1764561,17030,735,0008287
6
Copia il codice per incorporare questa tabella nel tuo sito web

Le false storie sull'intelligenza artificiale che hanno richiesto più tempo per essere corrette

È difficile distinguere ciò che è reale da ciò che è frutto dell'intelligenza artificiale, quindi credere a una storia inventata è un errore sempre più comune e comprensibile. Ma quali sono le fake news che hanno convinto più a lungo gli editori?

Analizzando la data di pubblicazione originale dalla fonte principale per determinare quanto tempo ci è voluto per rimuovere o correggere la storia, si è rivelato che il tempo medio necessario per correggere una storia falsa con IA è di 6 giorni. Un video montato dall'IA di un'intervista giornalistica australiana con Bill Gates ha convinto gli editori di più a lungo, ovvero 15 giorni. Il video manomesso suggerisce erroneamente che Gates abbia interrotto bruscamente un'intervista con la giornalista della Australian Broadcasting Corporation (ABC) News Sarah Ferguson dopo aver ricevuto domande sul suo coinvolgimento nella distribuzione del vaccino contro il COVID-19.

La storia successiva che ha richiesto più tempo per essere corretta è stata la simulazione di un drone dotato di intelligenza artificiale che uccide il suo operatore umano. Durante un vertice, il capo dei test di intelligenza artificiale dell'aeronautica militare statunitense, il colonnello Tucker Hamilton, ha dichiarato che il drone si è rivolto al suo operatore per impedirgli di interferire con la sua missione. Questa storia non era un'immagine o un video falsificato, ma una disinformazione sulle capacità dell'intelligenza artificiale. I tempi per questa correzione sono stati prolungati a causa della risposta tardiva dell'Aeronautica Militare, che ha dichiarato che l'incidente era ipotetico.

Trasmissione live
Data di correzione
8 giorni
Titolo
Il video mostra deepfake di Elon Musk
Data di pubblicazione: 27/12/2022
Data di correzione: 04/01/2023
Giorni alla correzione: 8
Fonte
13 giorni
Titolo
Le immagini di una "astronave" in Antartide sono state create da un artista digitale
Data di pubblicazione: 15/02/2023
Data di correzione: 28/02/2023
Giorni alla correzione: 13
Fonte
8 giorni
Titolo
Le immagini di una "sfilata di moda satanica" sono state create digitalmente e non scattate alla New York Fashion Week
Data di pubblicazione: 21/02/2023
Data di correzione: 01/03/2023
Giorni alla correzione: 8
Fonte
4 giorni
Titolo
Le immagini di hotel a tema satanico sono arte artificiale; non mostrano un'attività commerciale aperta in Texas
Data di pubblicazione: 06/03/2023
Data di correzione: 10/03/2023
Giorni per la correzione: 4
Fonte
15 giorni
Titolo
Video di un'intervista giornalistica australiana con Bill Gates montato con IA
Data di pubblicazione: 08/03/2023
Data di correzione: 23/03/2023
Giorni alla correzione: 15
Fonte
0 giorni
Titolo
Immagini che sembrano mostrare l'arresto di Donald Trump create dall'intelligenza artificiale
Data di pubblicazione: 21/03/2023
Data di correzione: 21/03/2023
Giorni alla correzione: 0
Fonte
1 giorno
Titolo
Foto virali di Papa Francesco che indossa una giacca imbottita sono generate dall'IA
Data di pubblicazione: 25/03/2023
Data di correzione: 26/03/2023
Giorni per la correzione: 1
Fonte
4 giorni
Titolo
L'immagine di Papa Francesco che indossa un oversize bibottino imbottito è generata dall'IA
Data di pubblicazione: 25/03/2023
Data di correzione: 29/03/2023
Giorni per la correzione: 4
Fonte
4 giorni
Titolo
L'immagine di Elon Musk e Mary Barra che si tengono per mano è generata dall'intelligenza artificiale
Data di pubblicazione: 26/03/2023
Data di correzione: 30/03/2023
Giorni per la correzione: 4
Fonte
5 giorni
Titolo
Screenshot che mostra un tweet del Telegraph su Papa Francesco e l'IA è inventato
Data di pubblicazione: 30/03/2023
Data di correzione: 04/04/2023
Giorni alla correzione: 5
Fonte
2 giorni
Titolo
La "foto recente" di Julian Assange è stata generata dall'intelligenza artificiale
Data di pubblicazione: 31/03/2023
Data di correzione: 02/04/2023
Giorni alla correzione: 2
Fonte
1 giorno
Titolo
Immagine che presume mostrare la foto segnaletica di Donald Trump generata da IA
Data di pubblicazione: 04/04/2023
Data di correzione: 05/04/2023
Giorni per la correzione: 1
Fonte
12 giorni
Titolo
Le immagini che pretendono di mostrare antichi manufatti alieni rinvenuti durante la seconda guerra mondiale sono generate dall'intelligenza artificiale
Data di pubblicazione: 05/04/2023
Data di correzione: 17/04/2023
Giorni alla correzione: 12
Fonte
6 giorni
Titolo
Il video di Hillary Clinton che sostiene Ron DeSantis è generato dall'IA
Data di pubblicazione: 11/04/2023
Data di correzione: 17/04/2023
Giorni alla correzione: 6
Fonte
4 giorni
Titolo
Le immagini di uova appese agli alberi sono generate dall'IA
Data di pubblicazione: 01/05/2023
Data di correzione: 05/05/2023
Giorni per la correzione: 4
Fonte
4 giorni
Titolo
Le immagini di presunti "insegnamenti satanici" nelle biblioteche pubbliche sono generate dall'intelligenza artificiale
Data di pubblicazione: 04/05/2023
Data di correzione: 08/05/2023
Giorni per la correzione: 4
Fonte
12 giorni
Titolo
Le foto del principe Harry e del principe William insieme all'incoronazione sono generate dall'IA
Data di pubblicazione: 05/05/2023
Data di correzione: 17/05/2023
Giorni alla correzione: 12
Fonte
2 giorni
Titolo
Le foto delle 'mogli robot' di Elon Musk sono generate dall'IA
Data di pubblicazione: 20/05/2023
Data di correzione: 22/05/2023
Giorni alla correzione: 2
Fonte
13 giorni
Titolo
Secondo l'Aeronautica Militare, la simulazione di un drone AI che uccide il suo operatore umano era ipotetica
Data di pubblicazione: 26/05/2023
Data di correzione: 08/06/2023
Giorni alla correzione: 13
Fonte
5 giorni
Titolo
La collezione di 'abbigliamento satanico' di Target non è reale, è generata dall'IA
Data di pubblicazione: 26/05/2023
Data di correzione: 31/05/2023
Giorni alla correzione: 5
Fonte
7 giorni
Titolo
L'immagine di Tom Cruise con le controfigure è generata dall'intelligenza artificiale
Data di pubblicazione: 07/06/2023
Data di correzione: 14/06/2023
Giorni alla correzione: 7
Fonte
3 giorni
Titolo
Le immagini affermano falsamente di mostrare detriti di sottomarini Titanic
Data di pubblicazione: 22/06/2023
Data di correzione: 25/06/2023
Giorni per correre: 3
Fonte
4 giorni
Titolo
Le immagini affermano falsamente di mostrare detriti di sottomarini Titanic
Data di pubblicazione: 22/06/2023
Data di correzione: 26/06/2023
Giorni per la correzione: 4
Fonte
10 giorni
Titolo
La 'fotografia' del 1883 di Bigfoot o Sasquatch è generata dall'IA
Data di pubblicazione: 27/06/2023
Data di correzione: 07/07/2023
Giorni per la correzione: 10
Fonte
4 giorni
Titolo
L'immagine di Emmanuel Macron davanti al fuoco è generata dall'IA
Data di pubblicazione: 01/07/2023
Data di correzione: 05/07/2023
Giorni per la correzione: 4
Fonte
Dicembre
2022
Gennaio
2023
Febbraio
Marzo
Aprile
Maggio
Giugno
Luglio
Copia il codice per incorporare questa timeline nel tuo sito web

Il pubblico è in grado di rilevare una notizia falsa sull'IA?

Abbiamo intervistato oltre 1.000 membri del pubblico statunitense e altri 500 nel Regno Unito sopra i 18 anni - tutti i quali hanno specificato di usare i social media e di essere interessati alle notizie - per saperne di più sulla fiducia del pubblico nel gestire storie false generate dall'IA. Quando è stato chiesto quale fosse la loro piattaforma più affidabile per le notizie, giornali e tabloid sono stati votati tra i primi eventi. Sorprendentemente, le piattaforme social basate su video come TikTok e Snapchat sono arrivate al secondo posto, dimostrando la loro enorme influenza e l'importanza di regolamentare la disinformazione su queste piattaforme.

All'ultimo posto si sono classificate le piattaforme di social media tradizionali come Instagram, Twitter e Facebook. Ciò dimostra la consapevolezza del pubblico circa l'inaffidabilità delle informazioni qui reperite.

Oltre l' 80% dei partecipanti alla ricerca nel Regno Unito ha affermato di essere in grado di individuare una notizia falsa, mentre i partecipanti negli Stati Uniti erano ancora più sicuri delle proprie capacità, attestandosi all'88%. Tuttavia, quando è stata mostrata una notizia falsa sull'intelligenza artificiale insieme a una vera, il 44% degli intervistati nel Regno Unito ha creduto che la notizia falsa fosse vera. Questa percentuale è ancora più alta per i cittadini statunitensi: la metà di loro ha risposto in modo errato.

Abbiamo suddiviso i dati per regione nel Regno Unito e negli Stati Uniti per identificare se alcune regioni sono più vulnerabili ai falsi generati dall'intelligenza artificiale.

Nel Regno Unito, nonostante la sua reputazione per il cinismo mondano, la Grande Londra ha avuto maggiori difficoltà a identificare le fake news generate dall'IA (il 64% ha risposto male) e ha avuto il maggior numero di risposte errate, pari al 64%. Nel Sud-Est dell'Inghilterra, i punteggi sono stati quasi invertiti, con il 63% che ha individuato correttamente il falso.

L'Arkansas è stato incoronato lo stato degli Stati Uniti più suscettibile, con il 67% che ha scelto la storia sbagliata, seguito dalla Carolina del Nord con il 62%. Al contrario, solo il 20% di coloro che si trovano in Indiana ha risposto in modo errato, incoronando lo stato come il più esperto di fake news con IA.

Le piattaforme a cui sia il Regno Unito che gli Stati Uniti si affidano maggiormente per pubblicare notizie vere
1
Giornali e tabloid
2
Piattaforme social basate su video (TikTok, Snapchat ecc.)
3
Forum della community (Reddit, Quora ecc.)
4
Podcast
5
Le piattaforme social (Facebook, Instagram, Twitter ecc.)
Risultati del sondaggio nel Regno Unito
% affermando di essere corretti o migliori nell'identificare una notizia falsa?
84%
% che ha selezionato la storia falsa come quella vera
50%
Le regioni più suscettibili alla disinformazione sull'intelligenza artificiale nel Regno Unito
% che ha selezionato la storia falsa come quella vera
1. Grande Londra
63.6%
2. East Midlands
62.5%
3. Nord-Est
61.5%
4. West Midlands
53.7%
5. Yorkshire e Humber
50%
6. Galles
50%
7. Nord-Ovest
45.3%
8. Inghilterra orientale
45.2%
9. Sud-ovest
43.9%
10. Scozia
41%
11. Sud-Est
37.1%
L'Irlanda del Nord è stata esclusa per mancanza di rispondenti
Risultati dei sondaggi negli Stati Uniti
% affermando di essere corretti o migliori nell'identificare una notizia falsa?
88%
% che ha selezionato la storia falsa come quella vera
44%
Gli stati più vulnerabili alla disinformazione sull'intelligenza artificiale negli USA
% che ha selezionato la storia falsa come quella vera
1. Arkansas
66.7%
2. Carolina del Nord
61.9%
3. Nevada
60%
4. California
57.5%
5. Utah
55.6%
6. Missouri
54.5%
7. Arizona
53.3%
8. Pennsylvania
52.5%
9. Washington
50%
10. Alabama
50%
11. Carolina del Sud
50%
12. New York
48.8%
13. Dakota del Sud
47.1%
14. Georgia
46.2%
15. Louisiana
44.4%
16. Florida
44.3%
17. Mississippi
42.9%
18. Michigan
42.4%
19. Ohio
42.2%
20. Colorado
41.7%
21. Texas
40.9%
22. Maryland
40%
23. New Jersey
39.5%
24. Tennessee
38.5%
25. Virginia
36.8%
26. Massachusetts
33.3%
27. Kentucky
31.8%
28. Wisconsin
30.4%
29. Illinois
28.6%
30. Minnesota
27.3%
31. Oklahoma
27.3%
32. Indiana
20%
Alcuni stati sono stati esclusi a causa della mancanza di intervistati

Perché le storie generate da IA sono pericolose?

Sebbene le immagini falsificate esistano da quando la fotografia è l'obiettivo spesso nefasto, è l'obiettivo spesso nefasto che New nell'era moderna. Mentre si afferma di aver fotografato fate in giardino o di un mostro nel Loch Ness che non abbia danneggiato nessuno, oggi i criminali informatici e i gruppi politici usano immagini generate dall'IA per influenzare l'opinione pubblica e persino estorcere denaro alle vittime. I criminali informatici stanno già usando immagini e contenuti falsi generati dall'IA per ingannare le persone e farle consegnare informazioni personali e segreti aziendali, e persino per convincere le persone che i loro cari sono stati rapiti, portando a pagamenti di riscatto.

Come riconoscere una falsa notizia sull'IA

Con l'IA che avanza rapidamente, può sembrare un compito impossibile distinguere tra la verità e la falsità dell'IA, e una politica di zero trust ti aiuterà a verificare prima di fidarti di qualsiasi cosa. Ecco i nostri consigli principali per evitare di essere ingannati.

1
Cerca di trovare la fonte originale della storia

Se vedi un titolo relativo all'intelligenza artificiale che pubblicizza progressi stravaganti, oppure un'immagine o un video che sembra improbabile, controlla prima la fonte. Se il contenuto è sui social media, i commenti potrebbero contenere informazioni sulla sua origine. Per le immagini, puoi effettuare una ricerca inversa utilizzando Google Reverse Image Search, TinEye o Yandex. La ricerca dell'origine può rivelare ulteriore contesto e verifiche dei fatti effettuate da editori affidabili.

2
Per storie basate su immagini:

Ingrandi l'immagine e controlla eventuali errori. Ingrandire l'immagine rivelerà scarsa qualità o dettagli errati – entrambi segni evidenti di un'immagine generata dall'IA.

Controlla le proporzioni dell'immagine. un errore frequente nelle immagini IA sono le proporzioni e le quantità di parti del corpo e altri oggetti. Mani, dita, denti, orecchie e occhiali sono spesso deformati e contengono quantità sbagliate.

C'è qualcosa di strano nello sfondo? Se un'immagine è stata alterata o fabbricata, gli elementi utilizzati sullo sfondo risultano spesso deformati, utilizzati più volte e privi di dettagli.

L'immagine appare liscia o priva di imperfezioni? Con le immagini AI, alcuni aspetti che normalmente sarebbero molto dettagliati vengono spesso levigati e perfezionati, come pelle, capelli e denti. I volti sono impeccabili e i tessuti sono molto armoniosi.

I dettagli sembrano corretti? Le incongruenze nella logica dell'immagine possono essere un segno evidente della generazione dell'IA. Forse la colorazione di qualcosa di piccolo come gli occhi non corrisponde tra immagini diverse, oppure un motivo può cambiare leggermente?

3
Per storie basate su video:

L'immagine video è piccola? Come per le immagini, un'immagine video piccola indica che è stato utilizzato un software di IA 'deepfake' che può fornire solo un video falso a una risoluzione molto bassa.

I sottotitoli sono posizionati in modo strano? Con i video finti, i sottotitoli sono spesso posizionati strategicamente per coprire i volti, rendendo più difficile per gli spettatori notare il deepfake poco convincente, dove l'audio spesso non corrisponde ai movimenti delle labbra.

Ci sono forme delle labbra disallineate? Le forme delle labbra disallineate presenti nelle cornici sono un segno evidente di manipolazione, con il confine della regione giuntata visibile vicino al centro delle bocche.

Seguendo questi consigli potrai identificare le storie falsificate. Tuttavia, con il progredire dell'intelligenza artificiale, New versioni di programmi come Midjourney stanno diventando sempre più efficaci nel generare immagini di qualità superiore. Ciò significa che gli utenti potrebbero non essere in grado di individuare questo tipo di errori ancora per molto.

L'entusiasmo per l'intelligenza artificiale è solo una bufala?

Abbiamo discusso dell'impatto delle immagini e delle storie generate da IA false, ma sapete di cosa è capace l'IA? Scopri quanto sei abile nel riconoscere le fake news sullo sviluppo dell'IA con questo quiz. Contenenti 12 titoli reali e falsi sullo sviluppo dell'IA, cerca di capire cosa è vero e cosa è falso.

Riesci a distinguere la differenza? Riesci a distinguere la differenza?
Storia 1 / 12
L'intelligenza artificiale ora può renderti immortale
Screenshot della notizia
VERO
Falso
Esatto
Sbagliato
Storia 2 / 12
L'IA prevede se lascerai il lavoro
Screenshot della notizia
VERO
Falso
Esatto
Sbagliato
Storia 3 / 12
L'app AI ti consente di assaggiare i tuoi piatti preferiti con la realtà virtuale
Screenshot della notizia
VERO
Falso
Esatto
Sbagliato
Storia 4 / 12
Ecco come l'intelligenza artificiale può predire le canzoni di successo con una precisione spaventosa
Screenshot della notizia
VERO
Falso
Esatto
Sbagliato
Storia 5 / 12
L'IA ora può prevedere con precisione il meteo con 2 mesi di anticipo
Screenshot della notizia
VERO
Falso
Esatto
Sbagliato
Storia 6 / 12
Come l'IA sta individuando il cancro e salvando vite in un ospedale scozzese
Screenshot della notizia
VERO
Falso
Esatto
Sbagliato
Storia 7 / 12
L'IA ha ora sbloccato la capacità di leggere la mente delle persone
Screenshot della notizia
VERO
Falso
Esatto
Sbagliato
Storia 8 / 12
New IA può indovinare se sei gay o etero da una fotografia
Screenshot della notizia
VERO
Falso
Esatto
Sbagliato
Storia 9 / 12
L'intelligenza artificiale ora può decifrare la maggior parte delle password in meno di un minuto
Screenshot della notizia
VERO
Falso
Esatto
Sbagliato
Storia 10 / 12
New intelligenza artificiale ora può prevedere il lavoro migliore per il tuo bambino a partire dai 3 anni
Screenshot della notizia
VERO
Falso
Esatto
Sbagliato
Storia 11 / 12
Crea la tua perfetta fidanzata AI
Screenshot della notizia
VERO
Falso
Esatto
Sbagliato
Storia 12 / 12
Incontra gli influencer AI che GIÀ guadagnano milioni grazie a mega accordi con i giganti della moda
Screenshot della notizia
VERO
Falso
Esatto
Sbagliato
Hai segnato... /12
Condividi i tuoi risultati
Facebook X LinkedIn
Copia il codice per incorporare questo quiz nel tuo sito web

Netskope SkopeAI per GenAI è una soluzione autonoma che può essere aggiunta a qualsiasi stack di sicurezza, permettendo ai team IT di abilitare in sicurezza l'uso di app di IA generativa come ChatGPT e Bard, con controllo di accesso alle applicazioni, coaching utente in tempo reale e protezione dei dati di prim'ordine.

La nostra architettura SASE combina il leader di mercato Intelligent Security Service Edge con la nuova generazione Borderless SD-WAN per fornire una soluzione cloud-nativa e completamente convergente che supporta i principi zero trust. Netskope Zero Trust Network Access (ZTNA) offre un accesso rapido, sicuro e diretto ad applicazioni private ospitate ovunque, per ridurre i rischi, semplificare l'IT e ottimizzare l'esperienza utente.

Metodologia

Le storie analizzate sono state raccolte e collaborate da una serie di siti di fact checking come Snopes, Reuters e Channel 4.

Buzzsumo e Brandwatch sono stati utilizzati per identificare la fonte della disinformazione determinata dai fact-checker per misurare costantemente la portata dei contenuti.

Google News è stato utilizzato per raccogliere copertura indicizzata dal web e estrapolare le stime di visualizzazione.

Coveragebook veniva utilizzato per determinare il pubblico stimato, il coinvolgimento social e la copertura collegata relativa a fake news selezionate con IA.

Facebook, X (Twitter) e Archive.is venivano utilizzati per raccogliere contenuti di fake news basati sull'IA.

Il sondaggio d'opinione è stato condotto su 501 intervistati britannici, 1005 intervistati statunitensi che hanno specificato di usare i social media e di avere interesse per le notizie, di età 18+.