SOLUCIONES PRÁCTICAS
DESENMASCARANDO EL PREJUICIO EN LOS
ALGORITMOS de ALD
El prejuicio dentro de los grandes datos( big data, en inglés) se ha encontrado en todas partes desde los resultados de búsqueda de Google hasta los lugares de entrega de Amazon Prime. A medida que los departamentos de antilavado de dinero( ALD) aumentan su dependencia del análisis y los algoritmos, la necesidad de desenmascarar prejuicios potenciales( incluyendo racial, étnico, religioso y de género) es un tema que ya no se puede evitar.
El movimiento hacia la tecnología avanzada aplicada al ALD y la detección de delitos financieros podría parecer superficialmente que da lugar a la presentación de reportes objetivos de operaciones sospechosas. Sin embargo, el New York Times informó que,“ los algoritmos pueden reforzar los prejuicios humanos”, 1 mientras que los investigadores han observado que la minería de datos puede heredar los prejuicios de los anteriores responsables de tomar decisiones o reflejar los prejuicios generalizados que persisten en la sociedad en general. 2
Los algoritmos son la piedra angular del ALD y de los programas de detección de delitos financieros en empresas de servicios financieros. Es importante entender que los algoritmos se construyen mediante el uso de conjuntos de entrenamiento extraídos de las decisiones humanas hechas en el pasado. Si los seres humanos hicieron regularmente decisiones discriminatorias o incluso involuntariamente discriminatorias en los materiales utilizados para desarrollar el algoritmo, el
CLASE PROTEGIDA:
Característica de una persona que no puede ser objeto de discriminación. Las siguientes características son consideradas“ clases protegidas” por la ley federal de los EE. UU.:
• Raza
• Color
• Religión
• Nacionalidad
• Edad
• Sexo
• Embarazo
• Ciudadanía
• Estado familiar
• Estado de Discapacidad
• Estatus de veterano
• Información genética algoritmo puede producir resultados discriminatorios. 3 El resultado más grave de la actividad marcado por un algoritmo de ALD o de delito financiero resulta en que la institución financiera presenta un reporte de operaciones sospechosas( ROS) ante la Red Contra los Delitos Financieros( FinCEN).
Tipos de prejuicio en los conjuntos de datos
Los algoritmos se basan en los datos. El reporte de la Casa Blanca de mayo de 2016 sobre los grandes datos señaló que los datos en sí pueden plantear varios retos relacionados con la equidad: 4
• Los datos mal seleccionados, incompletos, incorrectos o desactualizados— Esta es una manera elegante de decir“ entra basura, sale basura”. Sin embargo, las consecuencias de la escasez de datos son significativos para las instituciones financieras que pierden el tiempo revisando falsos positivos y para los individuos identificados incorrectamente como sospechosos o de alto riesgo debido al prejuicio de los datos. Un ejemplo de datos inexactos es que las minorías raciales tienen mayores casos de error en sus informes de crédito que los blancos. 5 Cuando los datos inexactos se incluyen en un algoritmo de manera desproporcionada, los resultados pueden impactar negativamente en los grupos históricamente desfavorecidos.
1
Claire Cain Miller,“ When Algorithms Discriminate,” New York Times, 9 de julio del 2015, http:// www. nytimes. com / 2015 / 07 / 10 / upshot / when-algorithms-discriminate. html?_ r = 0
2
Solon Barocas and Andrew D. Selbst,“ Big Data’ s Disparate Impact,” California Law Review, Vol. 104, 2016, http:// papers. ssrn. com / sol3 / papers. cfm? abstract _ id = 2477899
3
Emily Shaw,“ Avoiding prejudice in data-based decisions,” Sunlight Foundation, 31 de julio del 2015, https:// sunlightfoundation. com / blog / 2015 / 07 / 31 / avoiding-prejudice-in-data-based-decisions /
4
“ Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights,” Executive Office of the President, mayo de 2016, https:// www. whitehouse. gov / sites / default / files / microsites / ostp / 2016 _ 0504 _ data _ discrimination. pdf
5
“ Report to Congress Under Section 319 of the Fair and Accurate Credit Transactions Act of 2003,” Federal Trade Commission, page 60, diciembre de 2012, https:// www. ftc. gov / sites / default / files / documents / reports / section-319-fair-and-accurate-credit-transactions-act-2003-fifth-interim-federal-tradecommission / 130211factareport. pdf
52 ACAMS TODAY | SEPTEMBER – NOVEMBER 2016 | ESPANOL. ACAMS. ORG | ACAMSTODAY. ORG