Se il giornalismo è l’artiglieria della libertà, chi si fiderebbe a lasciar decidere a una macchina quando aprire il fuoco?
«Ritengo un dovere dei giornalisti non porgere altro che i fatti ai loro lettori». Lo disse il Mahatma Gandhi, dando voce alle aspettative di tutti coloro che comprano un giornale: leggere notizie vere.
Può sembrare una banalità, ma non sempre l’idea del giornalismo procede di pari passo con quella di verità, vuoi per inseguire il facile successo, a costo di diffondere una notizia falsa, o per dar voce ai potenti di turno, capaci di manipolare, a suon di censura e propaganda, l’oggettività dei fatti.
Prima ancora della verità, la cui ricerca è rimessa anche alla coscienza del professionista di turno, il giornalismo necessità di libertà, senza la quale non vi può essere neanche la ricerca di ciò che è autentico.
«La stampa è l’artiglieria della libertà» disse invece Hans-Dietrich Genscher, ex ministro degli Affari esteri della Germania Ovest, a sintetizzare proprio il concetto che il giornalismo si nutre di libertà per non scadere in un mero esercizio di scrittura.
La libertà di stampa nel mondo
Ai giorni nostri, la libertà di stampa è messa fortemente in pericolo, così come confermato dal World press freedom index, l’indice di Reporter senza frontiere che monitora la libertà di stampa nel mondo.
Secondo tale rapporto, in 31 Paesi, dieci in più rispetto a due anni fa, la libertà di stampa è fortemente limitata, se non del tutto cancellata, per via di un costante aumento della repressione dei governi autocratici e «la diffusione di massicce campagne di disinformazione e propaganda».
E così, se nel podio dei Paesi più virtuosi si conferma la Norvegia, gli ultimi posti sono occupati dal Vietnam, la Cina e la Corea del Nord.
La disinformazione delle IA
Sono tempi duri per il giornalismo che, se perde terreno nel campo della libertà di espressione, non sta meglio sul fronte della veridicità delle notizie - complice un nuovo fenomeno: l’utilizzo di chatbot basati sull’intelligenza artificiale per scrivere notizie false.
Secondo una articolata indagine condotta da NewsGuard, un’organizzazione che valuta l’affidabilità dei siti di notizie di tutto il mondo, l’intelligenza artificiale è stata reclutata per scrivere notizie false su 49 siti web, in sette lingue diverse tra cui cinese, inglese, francese e thailandese.
Di fatto si tratta di "content farm" ossia siti web di bassa qualità che tendono a pubblicare una grande quantità di contenuti capaci di catalizzare l’attenzione di una larga fetta di pubblico, per massimizzare le proprie entrate pubblicitarie.
Lo scorso aprile, NewsGuard aveva contattato via email 29 dei siti esaminati, e due di essi avevano confermato di aver fatto uso dell’intelligenza artificiale per creare i contenuti poi pubblicati.
Come scritto da NewsGuard «certi articoli promuovono notizie false. Quasi tutti i contenuti sono scritti utilizzando un linguaggio banale e frasi ripetitive, segni distintivi dei testi prodotti dall’intelligenza artificiale».
Negli articoli falsi compaiono frasi come «non posso completare questa richiesta» o «in quanto modello di linguaggio IA...» a dimostrazione del fatto che i gestori di tali siti usano volontariamente i chatbot per diffondere notizie false, senza neanche prendersi il disturbo di correggerne il contenuto.
Manca, infatti, qualsiasi controllo o attività di revisione umana, oltre che la firma dell’autore dell’articolo che, nella maggior parte dei casi, viene semplicemente indicato come "admin" o con nomi fittizi.
L'impossibilità di distinguere il vero dal falso
A febbraio dello scorso anno, per esempio, in Cina è divenuto virale un comunicato stampa sull’annullamento delle restrizioni al traffico di una amministrazione locale.
Si trattava, invece, di un prodotto di ChatGpt che, di fatto, ha causato solo qualche multa agli inconsapevoli automobilisti cinesi, ma che è servito a rendere sempre più evidente il pericolo a cui si è esposti: quello di non riuscire più a distinguere notizie vere da quelle false.
Su ChatGpt, il chatbot sviluppato da OpenAi e basato sull’intelligenza artificiale, si era già espresso Gordon Crovitz, co-direttore generale di NewsGuard, il quale ha affermato che «questo strumento sarà il più potente per la diffusione della disinformazione mai esistito su internet. La creazione di una nuova falsa narrativa può ora essere effettuata su larga scala e molto più frequentemente: è come avere agenti IA che contribuiscono alla disinformazione».
Per chi ha un minimo di dimestichezza con tali tipi di strumenti non è difficile ottenere, in poco tempo, un articolo convincente e realistico ma totalmente falso nel suo contenuto.
«Un vero e proprio dono per coloro che beneficiano della disinformazione», come detto da Emily Bell, direttrice dell’istituto Tow Center for Digital Journalism, ma una maledizione per tutti coloro che, nello scrivere un articolo, cercano di preservare la realtà dei fatti.
E la disinformazione, come ben si sa, passa anche attraverso le immagini.
Davanti alla foto di Trump braccato dalla polizia, di Papa Francesco con il piumino bianco all’ultima moda, o di Putin che bacia le mani al presidente cinese Xi Jinping ci siamo sorpresi o arrabbiati, ma di certo non abbiamo subito notato quei piccoli particolari, una mano con troppe dita o la testa eccessivamente grande, che certificano che tali foto siano un prodotto dell’intelligenza artificiale.
Se, in alcuni casi, piccoli dettagli possono mettere sull’attenti, il perfezionamento dei software preposti alla creazione di tali tipi di immagini, sta dando dei risultati sempre più accurati e difficilmente distinguibili dal reale.
In un articolo pubblicato lo scorso marzo su Fanpage, veniva esaminato, punto per punto, il tentativo di creare immagini false servendosi del software Midjourney e se, in un primo momento, come scritto dalla giornalista Elisabetta Russo, «il software ha iniziato a sputare fuori immagini terribili», è bastata «una infarinatura per far generare immagini ultra realistiche».
Il risultato di tale esperimento sono foto che non si avrebbe alcun motivo per ritenere false: da Putin ferito in guerra fino ad Elon Musk a colloquio con il Papa, passando per Obama in vacanza a Venezia, l’effetto è veramente stupefacente.
Il 18 marzo scorso la giuria del Sony World Photography Awards, prestigioso concorso di fotografia, aveva assegnato il primo premio al fotografo tedesco Boris Eldagsen, autore di “Pseudomnesia”, definito «uno struggente ritratto in bianco e nero di due donne, che ricorda il linguaggio visivo dei ritratti di famiglia degli Anni ‘40».
Peccato che la foto fosse opera dell'intelligenza artificiale e che il suo presunto autore, che ha rivelato l’inganno e rifiutato il premio, si fosse limitato a poche e insignificanti modifiche.
Un modo, questo, per dimostrare quanto sia facile ingannarsi su cosa sia vero e falso ai giorni nostri, in special modo se non si è in possesso di una solida cultura digitale.
Un fenomeno preoccupante
Come in tanti aspetti della nostra vita, è da tempo che l’intelligenza artificiale, basata sull’elaborazione del linguaggio naturale di cui ChatGpt è, forse, l’esempio più noto, si è insinuata anche nel giornalismo. Dalla raccolta dei dati al confezionamento della notizia, non vi è una fase di elaborazione di un articolo giornalistico che non possa essere affidata all’IA.
Il primo software a essere usato in una redazione giornalistica risale al 2014, mentre, già nel 2019, il New York Times scrisse che vi erano testate giornalistiche che si servivano di software appositi per scrivere «un terzo dei contenuti dell’intera testata».
Il fenomeno preoccupa gli esperti, e sono in molti a gridare al pericolo di un mondo in cui sarà l’Uomo a essere asservito alle macchine e non viceversa.
È di poche settimane fa, ad esempio, la clamorosa notizia che Geoffrey Hinton, studioso e sviluppatore delle reti neurali, chiamato «il padrino dell’intelligenza artificiale», si sia dimesso dal suo ruolo a Google perché preoccupato per gli inquietanti effetti che l’utilizzo dell’IA possa avere sull’umanità.
Secondo Hinton, se è vero che attualmente l’intelligenza artificiale può lavorare solo in maniera complementare rispetto all’uomo, in un prossimo futuro si potrà arrivare ad avere macchine capaci di scriversi da sole i propri codici di programmazione, e quindi totalmente autonome.
Il mese scorso, numerosi programmatori hanno presentato un appello, firmato da oltre ventisettemila sostenitori, per chiedere di interrompere lo sviluppo delle intelligenze artificiali per almeno sei mesi.
Tornando quindi al discorso iniziale: se il giornalismo è l’artiglieria della libertà, chi si fiderebbe a lasciar decidere a una macchina quando aprire il fuoco?