SOLUCIONES PRÁCTICAS
La naturaleza incontestable de
los algoritmos de ALD es
especialmente importante dada
la prohibición legal de revelar si
un ROS ha sido presentado o no
• Auditar y evaluar conjuntos de datos y
algoritmos para efectos potencialmente
discriminatorios
de la diversidad racial, demografía religiosa o
étnica de los sujetos de ROS. 16 FinCEN tam-
bién emplea algoritmos para “monitorear pre-
sentaciones [de BSA] sobre una base diaria e
identificar los informes que merecen una
revisión adicional por parte de los analistas”. 17
Se necesita investigar para determinar el
impacto potencial del prejuicio en los docu-
mentos ROS presentados y en los algoritmos
utilizados por la FinCEN misma.
Cathy O’Neil, autora de Weapons of Math
Destruction, señaló que los modelos que se
utilizan hoy en día son opacos, no regulados, e
incontestables, incluso cuando se equivo-
can. 18 La naturaleza incontestable de los algo-
ritmos de ALD es especialmente importante
dada la prohibición legal de revelar si un ROS
ha sido presentado o no. Un sujeto de ROS no
tiene manera de saber si se le ha marcado
debido a un algoritmo prejuiciado y el indivi-
duo no tiene ningún recurso para apartarse
de cualquier base de datos de la FinCEN.
El reporte de la Casa Blanca señaló que si las
técnicas de grandes datos “no se aplican con
cuidado, también pueden perpetuar, exacer-
bar o enmascarar la discriminación perjudi-
cial”. 19 Por otra parte, el informe de la Casa
Blanca indicó que la nueva tecnología debe
mejorar la confianza y la seguridad pública
“por medio de medidas que promuevan la
transparencia y la rendición de cuentas y
mitiguen los riesgos de disparidades en el tra-
tamiento y los resultados basados en las
características individuales”. 20 FinCEN invo-
luntariamente puede desempeñar un papel
perpetuando las desigualdades sociales
mediante el almacenamiento y diseminación
de datos de BSA sin determinando si la par-
cialidad existe dentro de los datos.
Avanzando
El primer paso de una institución financiera
para eliminar el prejuicio en ALD y los repor-
tes e informes de análisis es reconocer que la
tecnología y los algoritmos fueron creados por
humanos e incorporan prejuicios humanos
con respecto a raza, sexo y religión. Sorelle
Friedler, profesora de ciencias informáticas
en la Universidad de Haverford, declaró: “Si
no se está deliberadamente tratando de iden-
tificarlo y corregirlo, este prejuicio probable-
mente aparecerá en sus resultados”. 21
El reporte de la Casa Blanca ofreció las
siguientes sugerencias con el fin de evitar la
toma de decisiones basada en datos de la
reincorporación de los patrones de prejuicio:
• Revisar la forma de recopilación de
datos, los procesos de aprendizaje de
máquinas y los materiales de formación
y definiciones de categorías que podrían
introducir—hasta inadvertidamente—
elementos de prejuicio 22
Además, las instituciones financieras deben:
• Comparar las referencias sospechosas para
transacciones cara a cara frente a alertas
de transacciones automatizadas
• Comparar los documentos presentados
obligatoriamente tales como CTR a las
presentaciones discrecionales
• Determinar si los problemas estructurales
(por ejemplo, la falta de identificación con
foto) está contribuyendo a la sobre-repre-
sentación de ciertos grupos
Las instituciones financieras y los regulado-
res financieros deben tomar medidas que
ahora incluyan el análisis de los datos de
entrada y de formación, la revisión de las
reglas de decisión de algoritmo, y resulta-
dos algorítmicos de auditoría para asegurar
que la exactitud, la transparencia y la equi-
dad también están integradas dentro de los
algoritmos de ALD.
Alison Jiménez, CAMS, presidenta, Dynamic
Securities Analytics, Inc., Tampa, FL,
EE.UU., [email protected]
Carta de FinCEN del 13 de mayo del 2016 en respuesta a la Freedom of Information Act Request de Dynamic Securities Analytics, Inc.,
http://securitiesanalytics.com/wp-content/uploads/2016/08/2016-482-Jimenez-FOIA-Response-Letter-1.pdf
17
Comentarios de Jennifer Shasky Calvery, FinCEN Director at Predictive Analytics World for Government, 13 de octubre del 2015,
https://www.fincen.gov/news_room/speech/pdf/20151013.pdf
18
Cathy O’Neil, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, (Crown: 2016), 18.
19
“Big Data: A Report on Algorithmic Systems, Opportunity, and Civil Rights,” Executive Office of the President, mayo de 2016,
https://www.whitehouse.gov/sites/default/files/microsites/ostp/2016_0504_data_discrimination.pdf
20
Ibid.
21
David Ingold and Spencer Soper, “Amazon Doesn’t Consider the Race of its Customers. Should it?,” Bloomberg Businessweek, 21 de abril del 2016,
http://www.bloomberg.com/graphics/2016-amazon-same-day/
22
Emily Shaw, “Avoiding prejudice in data-based decisions,” Sunlight Foundation, 31 de julio del 2015,
https://sunlightfoundation.com/blog/2015/07/31/avoiding-prejudice-in-data-based-decisions/
16
ACAMS TODAY | SEPTIEMBRE–NOVIEMBRE 2016 | ESPANOL.ACAMS.ORG | ACAMSTODAY.ORG
55