Lo farà (per ora) solo negli States grazie all'intelligenza artificiale. Non mancano però le perplessità sulla privacy
SAN FRANCISCO - Apple ha deciso che implementerà un algoritmo che scansionerà tutte le foto immagazzinate sugli iPhone e sugli spazi iCloud in cerca di possibili immagini pedopornografico. A scriverlo è il Financial Times che spiega come il software, che si chiama Neuralmatch, «avvertirà un team di sorveglianza di umani che, dopo i controlli del caso, si occuperanno di avvisare le autorità».
Tutto si basa su algoritmi di intelligenza artificiale, “allenati” su diversi database come quello dei bimbi scomparsi del National Center for Missing & Exploited Children e alcuni archivi di immagini sottratte a pedofili americani dalle autorità.
Per far scattare l'allarme - portando al controllo manuale da parte degli investigatori - saranno necessari un numero predeterminato di match in altrettante foto. La scansione, conferma il portale, avverrà inizialmente solo negli Stati Uniti.
Se da una parte questa è una cosa molto positiva per la lotta globale alla pedopornografia, dall'altra non mancano le perplessità di carattere etico legati alla privacy per una novità abbastanza importante, imposta dall'alto. Insomma, è vero che teoricamente si tratta di un'idea virtuosa, ma le possibili applicazioni negative (o “furbette”) di un sistema che scansiona costantemente le tue foto potrebbero essere molteplici.
Quello della Mela è un cambio di rotta abbastanza evidente rispetto al passato, nel 2015 si era rifiutata di aiutare l'FBI a sbloccare un iPhone di uno degli attentatori della strage terroristica di San Bernardino (in California) che aveva causato 14 morti. L'argomento a sostengo della scelta riguardava proprio la questione della «privacy assoluta» dei suoi dispositivi.