Un caso che porta a galla i problemi dei sistemi per il riconoscimento facciale.
Il dibattito è aperto, anche nella comunità scientifica.
WASHINGTON - In un'America attraversata dalle proteste antirazziste contro la polizia finisce sotto i riflettori il primo caso noto di un afroamericano arrestato, innocente, a causa di un errore compiuto non da un agente, ma da un software per il riconoscimento facciale.
Una tecnologia da tempo al centro delle polemiche perché sembra riconoscere bene solo gli uomini bianchi, mentre è poco attendibile se messa davanti a un'etnia o genere diverso.
Il caso - A denunciare l'episodio è una ong per i diritti civili, che si è unita al coro di chi chiede lo stop all'uso di questo strumento da parte delle forze dell'ordine. Il 9 gennaio scorso, racconta oggi l'Unione americana per le libertà civili, è finito in manette un cittadino di Detroit, Robert Williams, erroneamente identificato dal software come l'uomo ripreso dalle videocamere di sicurezza mentre compiva un furto in un negozio. Il sospettato è stato trattenuto per 30 ore prima di riuscire a far capire ai poliziotti che no, non era lui quello immortalato dalla videosorveglianza.
La ong ora accusa la polizia locale di essersi «basata su una tecnologia difettosa e razzista, senza prendere misure ragionevoli per verificare le informazioni ottenute». E chiede, oltre all'archiviazione e alle pubbliche scuse per Williams, lo stop all'utilizzo dei software per il riconoscimento facciale come strumento d'indagine.
Dibattito aperto - Le scuse sono arrivate dall'ufficio del procuratore, mentre sull'impiego dei software in polizia il dibattito è aperto. Negli Stati Uniti queste tecnologie sono in uso da oltre due decenni. Negli ultimi anni, tuttavia, diversi studi accademici hanno dimostrato che il riconoscimento facciale è affetto da pregiudizi razziali e di genere. Questo perché gli algoritmi sono stati sviluppati usando in prevalenza immagini di uomini bianchi rispetto a foto di donne e di persone di altre etnie.
Il problema è ammesso dalle grandi compagnie hi-tech. Nelle scorse settimane Ibm, Amazon e Microsoft hanno annunciato che non forniranno più i software per il riconoscimento del volto alla polizia, almeno fino a quando una legge nazionale non ne regolamenterà l'utilizzo.
E contro il riconoscimento facciale si sono pronunciati anche 2.200 esperti di tutto il mondo, in una lettera alla casa editrice Springer (la stessa di Nature) in cui si chiede di non pubblicare uno studio che sostiene la possibilità, per un software, di stabilire con quale probabilità una persona diventerà un criminale solo sulla base della sua immagine. Un 'Lombroso 2.0' che ha fatto insorgere la comunità scientifica.