Secondo una ricerca, le voci femminili preimpostate restituiscono l'immagine di una donna servile e remissiva
PARIGI - Le voci femminili preimpostate per gli assistenti vocali - Siri di Apple, Alexa di Amazon e Cortana di Microsoft, ma anche Google Assistente nella versione originale in lingua inglese - rafforzano gli stereotipi di genere. A dirlo è una ricerca pubblicata dall'Unesco, secondo cui le risposte spesso sottomesse o civettuole che vengono date dagli assistenti vocali anche a domande inopportune, volgari o allusive restituiscono l'immagine di una donna servile e remissiva.
Lo studio si intitola "I'd blush if I could", "Arrossirei se solo potessi", che è la risposta fornita fino a qualche tempo fa da Siri a chi la insultava dandole della poco di buono. Attualmente, invece, l'assistente replica: "Non so proprio cosa rispondere".
A sviluppare questi sistemi di intelligenza artificiale sono team composti prevalentemente da uomini (tra i ricercatori in AI, le donne sono solo il 12%), si osserva nell'indagine. I ricercatori evidenziano le potenziali implicazioni negative a lungo termine soprattutto nei bambini, che cresceranno interfacciandosi con gli assistenti vocali.
«Macchine obbedienti e cortesi che fingono di essere donne stanno entrando nelle nostre case, auto e uffici», ha osservato Saniye Gulser Corat, direttrice per l'Uguaglianza di genere all'Unesco. «La sottomissione che è inculcata in loro influenza il modo in cui le persone parlano alle voci femminili, e modella il modo in cui le rispondono alle richieste e si esprimono».