E proprio su questa tematica vi introduco un articolo del 23 gennaio 2017.
[Traduzione a cura di Luciana Buttini dall’articolo originale di Jonathan Drake pubblicato su
openDemocracy]
L’Intelligenza Artificiale sta crescendo a ritmo sostenuto sollevando seri problemi nel
campo dell’etica e dei diritti umani.
“Voi siete peggio di un idiota; voi non avete alcun rispetto per la vostra specie. Per più di migliaia
di anni gli uomini non hanno fatto altro che sognare patti con i demoni. Ora tali cose sono
possibili.”
Quando, nel 1984, William Gibson scriveva queste parole nel suo romanzo rivoluzionario,
Neuromante, l’Intelligenza Artificiale (IA) rientrava quasi interamente nel regno della fantascienza.
Tuttavia, oggi, la convergenza di algoritmi complessi, lo sviluppo di Big Data (o grandi dati), e la
crescita esponenziale della potenza di calcolo hanno dato vita a un mondo in cui l’IA solleva una
serie di problemi importanti nel campo dell’etica e dei diritti umani, coinvolgendo un insieme
di diritti che va da quello alla privacy al diritto a un equo processo. Pertanto, al fine di affrontare tali
problematiche ci sarà bisogno di un notevole contributo da parte di esperti di un’ampia gamma di
discipline quali le politiche sociali, l’economia, la giustizia penale, l’etica e perfino la filosofia.
Oggi molte nuove invenzioni presentano spesso conseguenze involontarie. Tuttavia, l’IA è unica in
quanto le decisioni che danno origine a tali conseguenze vengono solitamente prese senza
l’intervento umano. La più grave di queste potenziali conseguenze nefaste scaturisce da sistemi
progettati appositamente per apportare danni sin dalla loro creazione, come ad esempio i sistemi
di armamento.
Dopo essere state a lungo l’elemento principale dei film di fantascienza, le armi che comprendono
vari gradi di autonomia di funzionamento, esistono in realtà da diverso tempo; e le mine terrestri
rappresentano uno degli esempi più semplici di questa tecnologia ma anche uno dei più
problematici in materia di diritti umani. Tuttavia, oggi, la scienza dell’IA ha fatto dei passi in avanti
al punto da arrivare a pensare ad un’ipotetica costruzione di sofisticati robot completamente
autonomi.
A seguito di ciò, nel 2012 è stata lanciata la campagna internazionale “Stop Killer Robots” da
parte di una coalizione di ONG, la quale cerca di garantire che la possibilità di prendere
decisioni di vita o di morte resti strettamente di competenza dell’uomo. In quello stesso
anno anche il ministero della Difesa americano, sebbene non fosse legato a questa
campagna, ha emanato la Direttiva 3000.09. Quest’ultima definisce la sua politica e stabilisce
che i sistemi di armamento completamente autonomi “devono essere utilizzati soltanto per
ricorrere alla forza non letale e non cinetica come alcune forme di attacco elettronico.” Infatti
secondo l’attuale politica, la forza letale necessita del controllo umano.