The Doppler Quarterly (FRANÇAIS) Été 2017 | Page 69

Ouvrez l’appli photo de votre téléphone et cherchez le mot « chien » : elle vous renverra toutes les images de chiens que vous avez. Cette tâche est pourtant loin d’être simple. Votre téléphone sait à quoi « ressemble » un chien. Ces connaissances et bien d’autres merveilles d’aujo- urd’hui sont issues de l’apprentissage automatique. Il s’agit de programmes qui passent au peigne fi n des mil- lions de données distinctes et qui établissent des cor- rélations et des prédictions sur le monde qui nous entoure. L’attrait de ces programmes est immense. Ces machines peuvent utiliser des données froides et inertes pour prendre des décisions parfois plus précises que celle d’un être humain. Mais attention, l’apprentissage automatique a également sa part d’ombre. « Beaucoup de gens pensent que les machines sont impartiales », déclare Aylin Caliskan, chercheuse en informatique scientifi que à Princeton. « Mais l’apprentissage des machines se fait à partir de données humaines. Et les êtres humains ne sont pas impartiaux. » Caliskan poursuit en expliquant que les ordinateurs apprennent à être racistes, sexistes, et acqu ièrent des préjugés de la même façon qu’un enfant : par leurs créateurs. Nous pensons souvent que l’intelligence artifi cielle est impartiale. C’est rarement le cas. Quasiment toutes les nouvelles technologies grand pub- lic utilisent l’apprentissage automatique d’une façon ou d’une autre. Prenez Google Translate : Personne n’a demandé au logiciel d’apprendre comment traduire du grec au français, puis à l’anglais. Google Translate a sim- plement étudié des volumes colossaux de texte et a appris par lui-même. Dans d’autres cas, les programmes d’apprentissage automatique font des prévisions pour déterminer quels CV ont le plus de chances d’appartenir aux bons candidats pour un poste, ou comment un patient va répondre à un traitement particulier. L’apprentissage automatique est un programme qui analyse des milliards de points de données pour résou- dre des problèmes (comme « pouvez-vous identifi er l’an- imal sur la photo »), mais ne clarifi e pas toujours la façon dont il a trouvé la solution. Il devient d’ailleurs de plus en plus évident que ces programmes peuvent développer des préjugés et des stéréotypes sans que nous le remarquions. ProPublica a publié en mai dernier une enquête sur un programme d’apprentissage automatique utilisé de façon systématique par les cours de justice pour prévoir le potentiel de récidive après une arrestation. Les auteurs de l’article ont découvert que le logiciel con- sidérait les noirs comme étant plus à risque que les blancs. D’après ProPublica, « les scores comme celui-ci - connus sous le terme d’évaluations des risques - sont de plus en plus courants dans les tribunaux de tout le pays ». « Ils sont utilisés pour appuyer la décision de remise en lib- erté ou nom des individus à tous les niveaux du système de justice pénale, de la détermination du montant des cautions... à des questions plus fondamentales encore concernant la liberté des prévenus. » Le programme a appris quels types d’individus présen- taient le plus de risques de se retrouver en prison à par- tir de données carcérales réelles. Le problème est que le système pénal réel a historiquement tendance à défa- voriser les Afro-Américains. Cet exemple révèle la profonde ironie de l’apprentissage automatique. En effet, l’attrait de ces systèmes est qu’ils sont capables de décisions impartiales, libérées des pré- jugés humains. « Si les ordinateurs pouvaient prévoir de façon fi able quels prévenus risquaient de récidiver, le système pénal pourrait devenir plus juste et plus sélectif dans le choix des peines de prison et de leur durée », selon ProPublica. Mais dans les faits, les programmes d’apprentissage automatique ont simplement reproduit nos préjugés à grande échelle. Ainsi, les préjugés contre les Afro-Amér- icains sont émis par un robot plutôt qu’un juge. Ce sont des histoires comme cette enquête de Pro- Publica qui ont amené Caliskan à entamer des recherches à ce sujet. En tant que chercheuse en informatique sci- entifi que qui se trouvait fréquemment être la seule femme de sa promotion en études supérieures, elle est particulièrement sensible à la question. Caliskan a vu des préjugés s’insinuer dans l’apprentis- sage automatique de façon souvent subtile - comme par exemple dans Google Translate. Ainsi, en turc, l’une de ses langues maternelles, il n’existe pas de pronoms par genre. C’est pour cette raison que lorsqu’elle utilise Google Translate sur des expression turques, « on obtient toujours « il est médecin » dans une langue qui fait la distinction entre les sexes. » La phrase n’indiquait pas en turc si le médecin était un ÉTÉ 2017 | THE DOPPLER | 67