cha innovación es proclive a perpetuar o incluso amplificarlos si la data no es cuidadosamente seleccionada y analizada ; lo cual puede resultar en discriminación contra determinados grupos , incluida la población LGBT + en situaciones como búsqueda de empleo , préstamos bancarios o servicios de salud .
“ Un ejemplo son los sistemas de reconocimiento facial o de voz basados en inteligencia artificial , tan usados hoy en día por servicios y hasta gobiernos , pero que a menudo carecen de representación LGBT +. Si no son diseñados con una perspectiva inclusiva , pueden fallar en reconocer y procesar correctamente identidades o expresiones de género no binarias . Algo similar ocurre con las soluciones de traducción automática y de reconocimiento de imágenes , pues tienden a ‘ normalizar ’ por así decirlo las expresiones de género , asignándolas de forma binaria y errónea al ignorar las variaciones más allá de lo concebido como masculino y femenino ”, explicó .
La experta también señala otros desafíos detectados en el uso de la inteligencia artificial , desde el punto de vista de la diversidad :
Interacción con asistentes virtuales : Los asistentes virtuales suelen estar programados con voces y personalidades que refuerzan estereotipos de género . Además , pueden no manejar adecuadamente temas relacionados con la diversidad sexual .
Acceso a tecnología : La discriminación sistémica puede llevar a que personas de la población LGBT + tengan menos acceso a beneficios tecnológicos , incluyendo educación y recursos de IA .
Para hacer frente a esos desafíos , dos sugerencias básicas en el desarrollo de productos como
CLASEEMPRESARIAL · Julio 2024 27