Spanish ACAMS Today (Septiembre-Noviembre 2016) Vol. 15 No. 4 | Page 54

SOLUCIONES PRÁCTICAS
• Los sustitutos( proxies, en inglés)— Los algoritmos pueden usar insumos que en valor nominal( por ejemplo, el código postal y el estado civil) son imparciales, pero en un examen más detenido operan lo mismo que un clasificador discriminatorio como la raza. Los investigadores han encontrado que las situaciones de este tipo son posibles cuando los criterios realmente relevantes en la toma de decisiones racionales y bien informadas también ocurren para servir como sustitutos fiables para miembros de una clase protegida. 6 Si usted en puridad no completaría una narrativa ROS que declarara:“ La transacción era sospechosa, ya que la llevó a cabo una mujer afroamericana”, entonces el algoritmo que utiliza un sustituto equivalente de raza también es objetable. Los sustitutos también se pueden usar para enmascarar el comportamiento discriminatorio.
• Los conjuntos de datos que representan ciertas poblaciones de manera desproporcionada— Considere un ejemplo de prejuicio explícito: Un gerente de sucursal bancaria dedica una atención desproporcionada en relación con el seguimiento de las actividades de los clientes hispanos y por lo tanto los reportes de operaciones“ sospechosas” sistemáticamente son más para los hispanos que para la actividad similar llevada a cabo por los clientes no hispanos, en parte debido a que el gerente se abstiene de someter a otros al mismo grado de escrutinio. Los datos de la operación“ sospechosa” de este director de la sucursal se incorporan en algoritmos que dan instrucciones a oficiales de ALD sobre dónde enfocar su atención, lo que aumenta aún más el escrutinio desproporcionado a clientes hispanos. La sobrerrepresentación en un conjunto de datos también puede conducir a resultados adversos desproporcionadamente altos para los miembros de las clases protegidas. 7
• Los conjuntos de datos que carecen de información— El acceso a los servicios financieros varía considerablemente debido a las barreras económicas, lingüísticas, estructurales o socioeconómicas. Esta falla sistemática puede reforzar tendencias a la discriminación por sobrerrepresentar algunas poblaciones y subrrepresentar otras. Consideremos dos ejemplos, los“ no bancarizados” y las tarjetas de identidad. La Federal Deposit Insurance Corporation encontró que el 17,9 por ciento de los hogares hispanos no tenían una cuenta en una institución financiera depositaria asegurada en 2013. 8 Los hogares sin cuentas bancarias se basan en otros medios, como tarjetas prepagas de débito y dinero en efectivo, para realizar transacciones financieras. Del mismo modo, el 25 por ciento de los adultos afroamericanos no tienen una identificación actualizada con foto emitida por el gobierno. 9 Como resultado, los algoritmos pueden sobre alertar potencialmente las transacciones con tarjetas de prepago para los clientes hispanos y los cajeros presentarían desproporcionadamente ROS en las tarjetas de ID“ sospechosas” para los afroamericanos.
• Los sistemas de toma de decisiones que asumen que una correlación implica necesariamente causalidad— Si alguna vez ha usado la misma remera de la suerte para todos los eventos deportivos de su equipo favorito porque cuando se la pone ganan, está familiarizado con la correlación frente a la causación. La remera claramente no fue la causa de que su equipo ganara, pero el equipo puede ganar con frecuencia cuando usted la usa. Del mismo modo, el código postal residencial de un cliente( que a menudo sirve como un sustituto de raza) no provocará que el cliente participe en el fraude hipotecario.
La FinCEN no tiene en cuenta la raza— ¿ Debería hacerlo?
Se han encontrado conjuntos de datos de agencias de control legal que coherentemente tienen disparidades raciales en las operaciones de narcotráfico y las tasas de detención. 10, 11 Además, se encontró que un algoritmo muy utilizado de la libertad condicional y condena sobre-predecía rutinariamente la tasa a la cual los afro-americanos reincidirían y sub-predecía la tasa a la que los delincuentes blancos reincidirían. 12 Si un error similar fuera hecho por un algoritmo de ALD, resultaría en alertas de falsos positivos excesivos para los afroamericanos y produciría falsos negativos errantes para los blancos.
FinCEN ofrece a las agencias de control legal federales, estatales, locales e internacionales el acceso a los registros de la Ley de Secreto Bancario( BSA) incluyendo los ROS y los reportes de transacciones en efectivo( CTR). FinCEN ha recibido más de 1,8 millones de ROS nombrando clientes e individuos en 2015 y cuenta con más de 190 millones de registros de la BSA. 13, 14 FinCEN hace que los datos de la BSA estén a disposición de más de 9.000 agencias de control legal y los reguladores que realizan más de 30.000 búsquedas cada día. 15
De acuerdo con la FinCEN, los“ registros de la BSA proporcionan pistas importantes y claves para los investigadores”. A pesar de la dependencia de las agencias de control legal de los datos de FinCEN, la agencia nunca ha realizado un estudio sobre si el prejuicio se produce dentro de los documentos ROS presentados ni se ha llevado a cabo el análisis
6
Solon Barocas and Andrew D. Selbst,“ Big Data’ s Disparate Impact,” California Law Review, Vol. 104, 2016, http:// papers. ssrn. com / sol3 / papers. cfm? abstract _ id = 2477899
7
Ibid.
8
“ 2013 FDIC National Survey of Unbanked and Underbanked Households,” Federal Deposit Insurance Corporation, page 5, octubre de 2014, https:// www. fdic. gov / householdsurvey / 2013report. pdf
9
Keesha Gaskins and Sundeep Iyer,“ The Challenge of Obtaining Voter Identification,” Brennan Center for Justice, 18 de julio del 2012, http:// www. brennancenter. org / publication / challenge-obtaining-voter-identification
10
“ Racial Profiling and Traffic Stops,” The U. S. Department of Justice, 10 de enero del 2013, http:// www. nij. gov / topics / law-enforcement / legitimacy / pages / traffic-stops. aspx
11
Ojmarrh Mitchell and Michael Caudy,“ Examining Racial Disparities in Drug Arrests,” Justice Quarterly, 22 de enero del 2013, http:// www. tandfonline. com / doi / abs / 10.1080 / 07418825.2012.761721
12
Julia Angwin, Jeff Larson, Surya Mattu and Lauren Kirchner,“ Machine Bias,” Propublica, 23 de mayo del 2016, https:// www. propublica. org / article / machine-bias-risk-assessments-in-criminal-sentencing
13
FinCEN SAR Stats for 2015 excluding“ Other” and“ No Relationship” categories see https:// www. fincen. gov / Reports / SARStats
14
Remarks by Jennifer Shasky Calvery, FinCEN Director at Predictive Analytics World for Government, 13 de octubre del 2015, https:// www. fincen. gov / news _ room / speech / pdf / 20151013. pdf
15
Ibid.
54 ACAMS TODAY | SEPTIEMBRE – NOVIEMBRE 2016 | ESPANOL. ACAMS. ORG | ACAMSTODAY. ORG