Come l’intelligenza artificiale crea fake news

Dal caso NotRealNews a sistemi come Grover e GPT-2. I pericoli dell’IA nel generare notizie false.

Fake News

Sommario
    Tempo di lettura Tempo di lettura terminato
    0
    Time

    L’espressione anglosassone fake news, traducibile in italiano con “notizie false”, serve a definire tutte informazioni che circolano in Rete e che si basano su informazioni inventate e/o distorte con lo scopo di fare scandalo, disinformare o anche attirare il pubblico sul proprio portale, generando visualizzazioni.

    La diffusione di queste notizie o informazioni false non ha fatto altro che aumentare la confusione tra le persone, alimentando teorie del complotto anche nel campo della ricerca medica e in quello farmaceutico.

    Se è vero che qualcuno ci ha costruito la propria fortuna facendo satira su questo aspetto della comunicazione (basti pensare a casi come quello di “Lercio” o del “Comune di Bugliano”) è altrettanto vero che quello delle fake news rappresenta un pericolo reale e diffuso, anche nel nostro Paese. Secondo uno studio dell’Osservatorio permanente Censis-Ital Communications sono infatti 4,5 milioni gli italiani che si espongono alle “notizie false”, utilizzando esclusivamente i social network come organo di informazione, e sono 29 milioni gli italiani che ‘dichiarano che durante la situazione di emergenza sanitaria si sono imbattuti sul web in notizie poi rivelatesi false o sbagliate’.

    Nell’osservazione di questa importante tematica abbiamo trovato un sito in grado di generare notizie utilizzando le informazioni raccolte da giornalisti ma poi lasciando scrivere l’articolo a una Intelligenza Artificiale. Ma sarà tutto vero quello che luccica?

    Not Real News, un sito che genera fake news con la IA?

    Secondo quanto riportato sulla pagina del sito gli articoli presenti sulla home page ‘sono stati realizzati esclusivamente tramite wordflow.dev’ con l’obiettivo ‘di potenziare i giornalisti con la nostra Intelligenza Artificiale in modo che possano dedicare più tempo al controllo dei fatti e allo stesso tempo essere in grado di coprire più storie’.

    In un universo giornalistico in cui la difficoltà di stare “sul pezzo” è sempre maggiore, spiegano su Not Real News, ‘miriamo innanzitutto a potenziare i giornalisti sportivi poiché gli articoli sportivi sono sensibili al tempo e possiamo creare contenuti, in media, in pochi secondi anziché in minuti’.

    Un sito che si pone l’obiettivo di contrastare ‘il clickbait e la diffusa disinformazione’ che ‘stanno diventando sempre più prevalenti nella nostra società. […] Utilizzando l’IA di Wordflow, vogliamo dare potere ai giornalisti e a queste piccole notizie fornendo loro informazioni…informazioni reali e verificate, non diffondendo bugie o creando disinformazione di massa’.

    Insomma, ‘in un’era di media veloci e in cui si incentiva la pubblicazione del maggior numero di articoli, speriamo di supportare il giornalismo, dando anche ai giornalisti più tempo per verificare i fatti e garantire che i loro contenuti siano di qualità e non clickbait’.

    NotRealNews.net è però stato accusato di essere, almeno in parte, il contrario di quello che si propone. Se, come riportato dal sito Futurism.com, ‘molti articoli sembrano essere strettamente basati su notizie reali, come le dimissioni del ministro delle finanze britannico Sajid Javid’, altri ‘articoli su sito contengono aggiornamenti fittizi sulla corsa presidenziale negli Stati Uniti’ o ‘disinformazione sull’epidemia di coronavirus in corso’.

    Il ruolo dell’IA nel mondo dell’informazione

    Il caso di NotRealNews non è isolato. Se infatti questo sito, pur avendo dichiaratamente buone intenzioni nell’aiutare il giornalismo, può generare tramite wordflow fake news, stesso discorso vale per il sistema Grover che può, secondo una ricerca, sempre come riportato su Futurism, ‘creare articoli contenenti notizie false e fuorvianti più credibili di quelle scritte da essere umani’.

    Secondo i ricercatori l’algoritmo sarebbe in grado di rilevare le fake news scritte dall’IA meglio di qualsiasi altro strumento ma, nelle mani sbagliate, potrebbe trasformarsi in un mezzo digitale di propaganda e di disinformazione. 

    Grover, realizzato da un gruppo di scienziati dell’Università di Washington per contrastare la disinformazione, è in grado di “scrivere”, ad esempio, un articolo che afferma il collegamento tra i vaccini e l’autismo e, sempre secondo lo studio, le persone hanno trovato le news generate da questa IA più convincenti di quelle scritte dagli esseri umani. Grover sembra essere in grado, infatti, di scrivere nello stile di testate considerate autorevoli come il “New York Times”, “Wired” o il “Washington Post”.

    Un modello di IA, quello di Grover, che si può accostare all’altrettanto “pericoloso” GPT-2 che, come riportato da un articolo del 2019 della BBC, ‘è stato addestrato su un set di dati di otto milioni di pagine web, ed è in grado di adattarsi allo stile e al contenuto del testo iniziale che gli è stato assegnato’, che sia ‘una poesia di Shakespeare, degli articoli o degli epiteti’.

    ‘Sono terrorizzato dal GPT-2’, ha dichiarato il giornalista Tristan Green, ‘perché rappresenta il tipo di tecnologia che gli umani malvagi useranno per manipolare la popolazione e secondo me questo lo rende più pericoloso di qualsiasi arma’.

    Anche il professore di informatica dell’Università di Sheffield, Noel Sharkey, ha sottolineato i pericoli di questa IA sviluppata da Open AI ma anche i limiti: ‘Se il software funzionasse come previsto da Open AI, sarebbe uno strumento molto utile per generare notizie false e spam da clickbait. Fortunatamente nella sua forma attuale, genera un testo incoerente e ridicolo. Scrivendo “La Turchia odia il Natale” ho capito che “La Turchia è l’unica nazione al mondo che non celebra il Natale”’, mentre ‘scrivendo “Boris Johnson ama il “backstop”” ha prodotto parole senza senso, incoerenti e alcune cose sull’IA e sullo sport. Quando ho inserito l’affermazione che “Boris Johnson odia il backstop”, ho avuto una storia più coerente che sembrava essere venuta fuori da una ricerca su Google’.

    Lo strumento dell’Intelligenza Artificiale rappresenta insomma un mezzo potenzialmente utile per accelerare la creazione di contenuti giornalistici ma al tempo stesso, come sottolineato, un’arma altrettanto pericolosa. Esattamente come può essere semplice realizzare notizie avvalendosi dell’IA, tagliando così i tempi per la produzione dei contenuti digitali, lo è altrettanto per dare forma a fake news in grado di influenzare l’opinione pubblica con informazioni false.

    Poter monitorare l’utilizzo che viene fatto di queste tecnologie è dunque fondamentale per garantire un’ informazione corretta, basata su principi di oggettività e verità su cui si costruisce il buon giornalismo.  

    Fonti

    Lascia il tuo commento

    Non verrà mostrata nei commenti
    A Good Magazine - Newsletter
    è il contenuto che ti fa bene! Resta aggiornato sulle malattie digitali