Sebbene in maniera meno radicale rispetto alle applicazioni militari, lo sviluppo dell’IA in campo
civile apre anche la strada a problematiche rilevanti nell’ambito dei diritti umani, quali la
discriminazione e il razzismo sistematico. Negli Stati Uniti, ad esempio, le forze di polizia ricorrono
sempre di più a sistemi automatici di “polizia predittiva”. Quest’ultimi immagazzinano grandi
quantità di dati circa le attività criminali, la demografia e i modelli geospaziali per poter realizzare,
a loro volta, delle mappe in cui gli algoritmi, sulla base di dati statistici, riescono a prevedere con
quanta probabilità possa verificarsi un crimine.
In materia di diritti umani, le implicazioni di questa tecnologia appaiono perfino più gravi nel
momento in cui tale sistema non si accontenta solo di prevedere il luogo del delitto ma cerca
anche di capire quali siano i soggetti suscettibili a commettere tali reati. Questo è l’approccio
adottato dalla città di Chicago, la quale ha impiegato l’IA per stilare una “Lista strategica” di
potenziali criminali. Questi vengono non solo “visitati” dalla polizia ma anche informati di essere
individui ad alto rischio.
Sebbene i fautori di questi sistemi sostengano la loro capacità di ridurre i tassi di criminalità e
addirittura i