Spanish ACAMS Today (Septiembre-Noviembre 2016) Vol. 15 No. 4 | Page 55

SOLUCIONES PRÁCTICAS La naturaleza incontestable de los algo­ritmos de ALD es especialmente importante dada la prohibición legal de revelar si un ROS ha sido presentado o no • Auditar y evaluar conjuntos de datos y algoritmos para efectos potencialmente discriminatorios de la diversidad racial, demografía religiosa o étnica de los sujetos de ROS. 16 FinCEN tam- bién emplea algoritmos para “monitorear pre- sentaciones [de BSA] sobre una base diaria e identificar los informes que merecen una revisión adicional por parte de los analistas”. 17 Se necesita investigar para determinar el impacto potencial del prejuicio en los docu- mentos ROS presentados y en los algoritmos utilizados por la FinCEN misma. Cathy O’Neil, autora de Weapons of Math Destruction, señaló que los modelos que se utilizan hoy en día son opacos, no regulados, e incontestables, incluso cuando se equivo- can. 18 La naturaleza incontestable de los algo- ritmos de ALD es especialmente importante dada la prohibición legal de revelar si un ROS ha sido presentado o no. Un sujeto de ROS no tiene manera de saber si se le ha marcado debido a un algoritmo prejuiciado y el indivi- duo no tiene ningún recurso para apartarse de cualquier base de datos de la FinCEN. El reporte de la Casa Blanca señaló que si las técnicas de grandes datos “no se aplican con cuidado, también pueden perpetuar, exacer- bar o enmascarar la discriminación perjudi- cial”. 19 Por otra parte, el informe de la Casa Blanca indicó que la nueva tecnología debe mejorar la confianza y la seguridad pública “por medio de medidas que promuevan la transparencia y la rendición de cuentas y mitiguen los riesgos de disparidades en el tra- tamiento y los resultados basados ​​en las características individuales”. 20 FinCEN invo- luntariamente puede desempeñar un papel perpetuando las desigualdades sociales mediante el almacenamiento y diseminación de datos de BSA sin determinando si la par- cialidad existe dentro de los datos.   Avanzando El primer paso de una institución financiera para eliminar el prejuicio en ALD y los repor- tes e informes de análisis es reconocer que la tecnología y los algoritmos fueron creados por humanos e incorporan prejuicios humanos con respecto a raza, sexo y religión. Sorelle Friedler, profesora de ciencias informáticas en la Universidad de Haverford, declaró: “Si no se está deliberadamente tratando de iden- tificarlo y corregirlo, este prejuicio probable- mente aparecerá en sus resultados”. 21 El reporte de la Casa Blanca ofreció las siguientes sugerencias con el fin de evitar la toma de decisiones basada en datos de la reincorporación de los patrones de prejuicio: • Revisar la forma de recopilación de datos, los procesos de aprendizaje de máquinas y los materiales de formación y definiciones de categorías que podrían introducir—hasta inadvertidamente— elementos de prejuicio 22 Además, las instituciones financieras deben: • Comparar las referencias sospechosas para transacciones cara a cara frente a alertas de transacciones automatizadas • Comparar los documentos presentados obligatoriamente tales como CTR a las presentaciones discrecionales • Determinar si los problemas estructurales (por ejemplo, la falta de identificación con foto) está contribuyendo a la sobre-repre- sentación de ciertos grupos Las instituciones financieras y los regulado- res financieros deben tomar medidas que ahora incluyan el análisis de los datos de entrada y de formación, la revisión de las reglas de decisión de algoritmo, y resulta- dos algorítmicos de auditoría para asegurar que la exactitud, la transparencia y la equi- dad también están integradas dentro de los algoritmos de ALD.  Alison Jiménez, CAMS, presidenta, Dynamic Securities Analytics, Inc., Tampa, FL, EE.UU., [email protected] Carta de FinCEN del 13 de mayo del 2016 en respuesta a la Freedom of Information Act Request de Dynamic Securities Analytics, Inc., http://securitiesanalytics.com/wp-content/uploads/2016/08/2016-482-Jimenez-FOIA-Response-Letter-1.pdf 17 Comentarios de Jennifer Shasky Calvery, FinCEN Director at Predictive Analytics World for Government, 13 de octubre del 2015, https://www.fincen.gov/news_room/speech/pdf/20151013.pdf 18 Cathy O’Neil, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, (Crown: 2016), 18. 19 “Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights,” Executive Office of the President, mayo de 2016, https://www.whitehouse.gov/sites/default/files/microsites/ostp/2016_0504_data_discrimination.pdf 20 Ibid. 21 David Ingold and Spencer Soper, “Amazon Doesn’t Consider the Race of its Customers. Should it?,” Bloomberg Businessweek, 21 de abril del 2016, http://www.bloomberg.com/graphics/2016-amazon-same-day/ 22 Emily Shaw, “Avoiding prejudice in data-based decisions,” Sunlight Foundation, 31 de julio del 2015, https://sunlightfoundation.com/blog/2015/07/31/avoiding-prejudice-in-data-based-decisions/ 16 ACAMS TODAY | SEPTIEMBRE–NOVIEMBRE 2016 | ESPANOL.ACAMS.ORG | ACAMSTODAY.ORG 55