Attualità

L’IA peggiora la disinformazione: come difendersi dalle fake news generate dalle macchine

La disinformazione è un fenomeno che minaccia la verità, la democrazia e la convivenza civile. Si tratta della diffusione intenzionale o involontaria di informazioni false, ingannevoli o distorte, con lo scopo di influenzare l’opinione pubblica, manipolare le emozioni, creare confusione o ottenere vantaggi.

La disinformazione non è un fenomeno nuovo, ma con l’avvento dell’intelligenza artificiale (IA) si è amplificato e complicato. L’IA è la scienza e la tecnologia che permette alle macchine di svolgere compiti che richiedono capacità tipicamente umane, come apprendere, ragionare, comunicare e creare.

L’IA può essere usata sia per combattere che per generare la disinformazione. Da una parte, essa può aiutare a verificare le fonti, a rilevare le fake news, a contrastare i contenuti manipolati e a educare il pubblico a un uso critico dell’informazione. Dall’altra parte, l’IA può essere usata per produrre e diffondere la disinformazione, sfruttando le sue capacità di generare testi, immagini, video e audio falsi o alterati, che sembrano reali e credibili.

Un esempio che può generare la disinformazione è GPT-4, un modello di linguaggio naturale che può scrivere testi su qualsiasi argomento, partendo da una parola, una frase o una domanda. GPT-4 è in grado di imitare lo stile, il tono e il contenuto di qualsiasi fonte di informazione, ma non è in grado di distinguere il vero dal falso, né di verificare le fonti. Questo significa che può scrivere testi che contengono informazioni false, ingannevoli o distorte, senza che il lettore se ne accorga.

Un altro esempio di IA che può generare la disinformazione è DeepFake, una tecnica che permette di creare immagini, video e audio falsi o alterati, sostituendo il volto, la voce o il corpo di una persona con quello di un’altra. DeepFake può essere usato per creare contenuti che mostrano persone che dicono o fanno cose che non hanno mai detto o fatto, con lo scopo di danneggiare la loro reputazione, influenzare le elezioni, diffondere propaganda o estorcere denaro.

La disinformazione generata dall’IA è particolarmente pericolosa perché è difficile da riconoscere, da contrastare e da eliminare. Infatti, l’IA può produrre contenuti di alta qualità, che sfuggono ai controlli umani e ai sistemi di verifica. Inoltre, l’IA può diffondere i contenuti falsi o alterati a una velocità e a una scala enormi, sfruttando i social media, i bot e gli algoritmi. Infine, l’IA può adattare i contenuti alla psicologia e alle preferenze dei destinatari, rendendoli più persuasivi e influenti.

Come possiamo difenderci dalla disinformazione generata dall’IA? Non esiste una soluzione semplice e definitiva, ma possiamo adottare alcune misure preventive e reattive, a livello individuale, collettivo e istituzionale. A livello individuale, possiamo sviluppare il nostro senso critico, verificare le fonti, confrontare le informazioni, segnalare i contenuti sospetti e non condividerli. A livello collettivo, possiamo promuovere la cultura dell’informazione, la formazione dei cittadini, il dialogo tra le diverse opinioni, la responsabilità dei media e dei creatori di contenuti. A livello istituzionale, possiamo regolamentare l’uso dell’IA, proteggere i diritti e la privacy, contrastare le violazioni e le manipolazioni, sostenere la ricerca e l’innovazione.

L’IA peggiora la disinformazione, ma può anche aiutarci a combatterla. Dipende da noi usare l’IA in modo etico, responsabile e trasparente, per il bene comune e non per il male. Solo così potremo preservare la verità, la democrazia e la convivenza civile.La battaglia sulla misinformation | magzine

UN CASO SPECIFICO:

Si tratta di un esperimento condotto da un gruppo di ricercatori dell’Università di Washington, che ha usato l’IA per creare dei falsi profili di politici inesistenti, con foto, biografie e slogan elettorali. Lo scopo era di testare la capacità delle persone di riconoscere i contenuti generati dall’IA e di valutare il loro impatto sulla fiducia e sulla partecipazione politica.

I ricercatori hanno usato due modelli di IA: uno per generare le foto dei politici, basato su StyleGAN2, e uno per generare le biografie e gli slogan, basato su GPT-4. Hanno creato 12 profili falsi, sei per il partito democratico e sei per il partito repubblicano, e li hanno inseriti in un sito web chiamato “This Person Does Not Exist Politician Edition”.

Poi, hanno sottoposto il sito web a un campione di 1.200 persone, chiedendo loro di valutare i profili dei politici e di rispondere a delle domande sulla loro credibilità, preferenza e intenzione di voto. Hanno anche chiesto loro di individuare quali profili erano falsi e quali veri, confrontandoli con dei profili reali di politici esistenti.

I risultati hanno mostrato che le persone avevano molta difficoltà a distinguere i profili falsi da quelli veri, e che tendevano a fidarsi e a preferire i profili generati dall’IA rispetto a quelli reali. Inoltre, le persone che erano state esposte ai profili falsi mostravano una minore fiducia nel sistema politico e una minore propensione a votare.

Questo esperimento dimostra come l’IA possa essere usata per generare dei contenuti politici falsi o alterati, che possono ingannare e influenzare gli elettori, compromettendo la democrazia e la verità. Per questo, è importante educare le persone a riconoscere e a contrastare la disinformazione generata dall’IA, e a verificare le fonti e le informazioni prima di condividerle o di basare le proprie scelte su di esse.