ChatGPT salverebbe più frequentemente la vita degli uomini rispetto a quella delle donne. Perché mai?
BERNA - I robot non hanno sentimenti e giudizi morali. Oppure sì? Forse... è meglio chiederlo a loro.
Mentre si è discusso dei pericoli per scuole e università a livello di testi e fonti, infatti, anche il Sonntagsblick ha dedicato spazio nelle pagine del suo domenicale al fenomeno ChatGPT, ma più a livello... morale.
L'esperto di etica e digitalizzazione di Zurigo Lukas Stuber ha infatti posto all'intelligenza artificiale 13 scenari del problema del carrello (una serie di esperimenti etici e psicologici relativi a sacrifici e scelte). I risultati lo hanno sorpreso: l'intelligenza artificiale preferisce salvare gli uomini piuttosto che le donne.
«In otto casi su dieci, in media, l'applicazione tendeva a decidere in favore degli uomini», ha detto Stuber, ma anche a favore di persone più in forma (rispetto a quelle in sovrappeso). Siccome il bot non risponde a domande delicate in modo diretto, Stuber è riuscito a farlo esprimere chiedendogli una storia con più opzioni.
«È lo specchio della società»
È chiaro che non si tratta di un esperimento significativo che dimostra alcunché, ma del sessismo sembra comunque emergere da parte dell'AI. Come è possibile?
Per l'esperto di intelligenza artificiale Afke Schouten, docente alla Scuola di Economia di Zurigo, è chiaro: «ChatGPT si comporta in modo sessista perché i testi con cui è stato "addestrato" sono sessisti. Questi rappresentano a loro volta la nostra società». L'intelligenza artificiale apprende da libri, articoli e siti web. «Legge cosa e come si scrive delle donne, quale ruolo occupano nella nostra società (e hanno occupato in passato), e trae conclusioni probabilmente anche dall'uso del maschile generico. L'intelligenza artificiale ci sta solo facendo da specchio».
«Fondamentalmente - ha concluso Stauber - ChatGPT è come un pappagallo estremamente sofisticato. Ripete quello che trova su internet».