¿Quien Nada Debe, Nada Teme?

Aún recordamos como en la película de 1987 el policía que protagonizaba Robocop tenía un visor que le permitía identificar por medio de las caras la identidad de las personas. Pues, poco más de 20 años y de forma mucho menos intimidante, varios países del mundo ya cuentan con sistemas integrados de cámaras con reconocimiento facial que apoyan a los diferentes departamentos policiales para la detección y lucha del crimen. Aunque, lo que apenas está evolucionando es hacerles frente a las implicaciones éticas referentes a la privacidad, el mal uso de las imágenes y los potenciales sesgos que pueden ser replicados por la IA.

Son diversas las formas como el reconocimiento facial apoya actualmente a la policía en la lucha contra el crimen. En España se desarrolló un sistema titulado ABIS (sistema automático de identificación biométrica por sus siglas en inglés) que utiliza un algoritmo llamado “Cogent Face Recognition Platform (FRP)” desarrollado por la empresa francesa THALES que permite identificar a un individuo con base en cualquier tipo de imagen que presente su rostro (El País, 2022). Del mismo modo, un informe presentado por Amnistía Internacional del 2017 al 2021 el departamento de policía de Nueva York utilizó reconocimiento facial para rastrear sospechosos en 22.000 casos, utilizando un sistema integrado de más de 15 000 cámaras (2021). Incluso, el uso de esta tecnología se reporta en Colombia. En Cúcuta, en el 2022, se desarrolló un plan piloto de reconocimiento facial que cruzaba la información de las bases de datos de detenidos de la Policía Nacional (Semana, 2022). En 2017 Envigado invirtió más de 2700 millones de pesos en cámaras con un software de reconocimiento facial y desde las 2015 ciudades como Bogotá, Cali, Cartagena y Barranquilla también cuentan con esta tecnología

No obstante, estos desarrollos suscitan verdaderas preguntas sobre la privacidad, la ética algorítmica y los derechos de los ciudadanos. Probablemente, el esfuerzo más canónico corresponde a la iniciativa #BanTheScan elaborada por Amnistía Internacional; organización que “después de la explosión de ciertas actuaciones racistas” en donde se utilizó cámaras con reconocimiento facial para identificar y procesar individuos en calidad de protesta durante el movimiento Black Lives Matter, estableció una campaña con más de 5.000 voluntarios y 18 000 horas de trabajo para documentar la ubicación de las cámaras con IA en Nueva York y ofrecer/demandar transparencia en el uso de esta tecnología. Pero, es importante preguntarse: ¿Por qué es importante la transparencia en estos sistemas? ¿Qué problemas puede traer una tecnología que tiene intenciones de reconocer a delincuentes? ¿Quién nada debe, nada teme?

Problemas de ética en crimen

La ética algorítmica ha ido incrementando su importancia con el creciente uso de la inteligencia artificial para la toma de decisiones. Los modelos de aprendizaje que han mostrado un mejor rendimiento técnico en los últimos años son los conocidos como «caja negra», dentro de los cuales podemos encontrar las redes neuronales profundas y los bosques aleatorios. El nombre asignado a esta categoría de modelos no es coincidencial; estos parecen producir resultados impresionantes, pero pocas personas entienden cómo lo hacen. Explicar por qué una red neuronal predijo que una imagen correspondía a un perro y no a un gato es una tarea titánica, pero posiblemente esa sea una respuesta correcta. A la hora de clasificar imágenes, la interpretabilidad del modelo no parece ser un gran problema, pero cuando se utilizan modelos para determinar si otorgar o no un crédito, para predecir si un delincuente va a reincidir, o si una persona es apta o no para un trabajo, es crucial entender el “cómo” de esa toma de decisión.

La falta de interpretabilidad puede ocultar problemas subyacentes en los modelos, como sesgos. Si al determinar si una persona es apta o no para una vacante laboral, se le otorga un puntaje bajo a una hoja de vida simplemente porque corresponde a una mujer, se está incurriendo en sesgos. Estos sesgos provienen de los datos y, por lo tanto, de prejuicios históricos que han caracterizado a la humanidad en el pasado. Si no deseamos seguir perpetuando estos mismos prejuicios, debemos evitar que los modelos que utilicemos los reproduzcan.

Los problemas de sesgos en los modelos de crimen se han venido estudiando desde hace un tiempo. En particular, se han detectado múltiples sesgos en modelos de reincidencia. En 2019 se llevó a cabo un estudio comparativo de distintas formas de asignar valores de probabilidad de reincidencia de jóvenes criminales en Cataluña. Comparativamente, los modelos de aprendizaje entrenados muestran un rendimiento técnico superior a la metodología utilizada anteriormente, que consistía en un formulario que los jóvenes debían completar. Sin embargo, estos modelos aún presentan discriminación por género y origen étnico. El uso exclusivo de estos modelos basados en un mejor rendimiento técnico podría dar lugar a sesgos y perjudicar a ciertos grupos poblacionales debido a características que no están relacionadas con sus comportamientos criminales. Especialmente conocida, la herramienta COMPAS ha sido utilizada en todo Estados Unidos para ayudar a los jueces a tomar decisiones sobre la fianza al predecir el riesgo de reincidencia criminal de los acusados. Diversos estudios han demostrado que esta herramienta muestra sesgos y perjudica a ciertos grupos poblacionales, principalmente a personas menores de 25 años y afroamericanas.

Por otro lado, se sabe que los algoritmos de reconocimiento facial han mostrado, en su mayoría, disparidades de rendimiento entre personas de diferentes géneros y razas. Desde 2018, se ha estado estudiando el impacto que esto puede tener. Los algoritmos de inteligencia artificial aprenden de los datos con los que se entrenan. Si el 80% de las imágenes de entrenamiento corresponden a personas blancas, es muy probable que el algoritmo tenga un mejor rendimiento en este grupo poblacional. Los problemas de reconocimiento facial van más allá de la barrera tecnológica que podría proporcionar, por ejemplo, el reconocimiento facial en un dispositivo. Cuando estos algoritmos se combinan con políticas de seguridad, el daño puede ser enorme. En 2020, la Universidad de Harvard analizó el posible impacto en la sociedad al tener diferencias de rendimiento en los algoritmos para ciertos grupos poblacionales (Figura 1).

“La vigilancia continua induce miedo y daño psicológico, dejando a los sujetos vulnerables a abusos dirigidos, así como daño físico, al expandir sistemas de supervisión gubernamental utilizados para negar el acceso a la atención médica y el bienestar social. En un entorno de justicia penal, las tecnologías de reconocimiento facial que son inherentemente sesgadas en su precisión pueden identificar erróneamente a sospechosos, encarcelando a afroamericanos inocentes.” (Harvard University, 2020).

Figura 1. Harvard University. Racial Discrimination in Face Recognition Technology. Blog, Science Policy, Special Edition: Science policy and social justice.  (2020).

Estos descubrimientos sobre modelos de crimen nos llevan a reflexionar sobre los algoritmos de reconocimiento facial que se utilizan en nuestras ciudades. ¿Cómo podemos garantizar que los modelos actualmente empleados por la policía no incurran en sesgos? ¿Es posible confiar en estos algoritmos? ¿Qué medidas se han utilizado para mitigar sesgos y evitar perpetuar los estereotipos?

 S. Tolan, M. Miron, E. Gómez, C. Castillo. Why Machine Learning May Lead to Unfairness: Evidence from Risk Assessment for Juvenile Justice in Catalonia (2019)

Tags
Inteligencia artificial Tecnología

Newsletter

Obtén información sobre Ciencia de datos, Inteligencia Artificial, Machine Learning y más.

Artículos recientes

En los artículos de Blog, podrás conocer las últimas noticias, publicaciones, estudios y artículos de interés de la actualidad.

Matemáticas del Descontento: Estudio de las Protestas Panameñas desde la Teoría de Grafos y Juegos

Durante la segunda mitad de 2022, Panamá enfrentó un hecho social sin precedentes. Si bien en el pasado ha habido protestas por parte de ciertos sectores sociales, nunca se había registrado una manifestación tan masiva que incluyera a distintos sectores de la sociedad panameña …

Justicia Algorítmica

Equidad en modelos de inteligencia artificial: ¿Cómo mitigar la discriminación en presencia de múltiples atributos sensibles?

Supongamos que contamos con un modelo de aprendizaje de máquinas, f, que predice el precio de una prima de seguros, Y, para unos datos que incluyen un atributo sensible, como lo es el género. Puede existir una discriminación debido a un …

Tecnología

Modelos de traducción para la preservación de las lenguas indígenas en Colombia

Según la Organización Nacional Indígena de Colombia (ONIC) existen 69 lenguas habladas en el territorio colombiano, entre las cuales 65 son lenguas indígenas. Esto posiciona a Colombia como el tercer país con mayor diversidad lingüística en el territorio latinoamericano, después de Brasil y México, con una notable concentración en las zonas de la Amazonía y el Vaupés…

Economía

Diseños óptimos para subastas de electricidad

Esta entrada de blog está basada en mi tesis de maestría en ingeniería industrial y economía en la Universidad de los Andes, titulada Optimal Design for Electricity Auctions: A Deep learning approach.

Tecnología

Víctimas Invisibles: la estimación del subregistro en el Conflicto Armado

El conflicto armado interno en Colombia representa una gran porción en la historia del país. La disputa por poder y control territorial entre los distintos grupos armados y las instituciones estatales ha desatado la violación de derechos humanos.

Justicia Algorítmica

Trade-off entre justicia y ajuste: un caso de estudio de crimen

El estudio de la justicia algorítmica surge en 2011 con Cynthia Dwork [1], quien se basó en el principio de igualdad de oportunidades: todas las personas, sin importar sus características, deben poder acceder a las mismas oportunidades y beneficios.