¿Quien Nada Debe, Nada Teme?

Aún recordamos como en la película de 1987 el policía que protagonizaba Robocop tenía un visor que le permitía identificar por medio de las caras la identidad de las personas. Pues, poco más de 20 años y de forma mucho menos intimidante, varios países del mundo ya cuentan con sistemas integrados de cámaras con reconocimiento facial que apoyan a los diferentes departamentos policiales para la detección y lucha del crimen. Aunque, lo que apenas está evolucionando es hacerles frente a las implicaciones éticas referentes a la privacidad, el mal uso de las imágenes y los potenciales sesgos que pueden ser replicados por la IA.

Son diversas las formas como el reconocimiento facial apoya actualmente a la policía en la lucha contra el crimen. En España se desarrolló un sistema titulado ABIS (sistema automático de identificación biométrica por sus siglas en inglés) que utiliza un algoritmo llamado “Cogent Face Recognition Platform (FRP)” desarrollado por la empresa francesa THALES que permite identificar a un individuo con base en cualquier tipo de imagen que presente su rostro (El País, 2022). Del mismo modo, un informe presentado por Amnistía Internacional del 2017 al 2021 el departamento de policía de Nueva York utilizó reconocimiento facial para rastrear sospechosos en 22.000 casos, utilizando un sistema integrado de más de 15 000 cámaras (2021). Incluso, el uso de esta tecnología se reporta en Colombia. En Cúcuta, en el 2022, se desarrolló un plan piloto de reconocimiento facial que cruzaba la información de las bases de datos de detenidos de la Policía Nacional (Semana, 2022). En 2017 Envigado invirtió más de 2700 millones de pesos en cámaras con un software de reconocimiento facial y desde las 2015 ciudades como Bogotá, Cali, Cartagena y Barranquilla también cuentan con esta tecnología

No obstante, estos desarrollos suscitan verdaderas preguntas sobre la privacidad, la ética algorítmica y los derechos de los ciudadanos. Probablemente, el esfuerzo más canónico corresponde a la iniciativa #BanTheScan elaborada por Amnistía Internacional; organización que “después de la explosión de ciertas actuaciones racistas” en donde se utilizó cámaras con reconocimiento facial para identificar y procesar individuos en calidad de protesta durante el movimiento Black Lives Matter, estableció una campaña con más de 5.000 voluntarios y 18 000 horas de trabajo para documentar la ubicación de las cámaras con IA en Nueva York y ofrecer/demandar transparencia en el uso de esta tecnología. Pero, es importante preguntarse: ¿Por qué es importante la transparencia en estos sistemas? ¿Qué problemas puede traer una tecnología que tiene intenciones de reconocer a delincuentes? ¿Quién nada debe, nada teme?

Problemas de ética en crimen

La ética algorítmica ha ido incrementando su importancia con el creciente uso de la inteligencia artificial para la toma de decisiones. Los modelos de aprendizaje que han mostrado un mejor rendimiento técnico en los últimos años son los conocidos como «caja negra», dentro de los cuales podemos encontrar las redes neuronales profundas y los bosques aleatorios. El nombre asignado a esta categoría de modelos no es coincidencial; estos parecen producir resultados impresionantes, pero pocas personas entienden cómo lo hacen. Explicar por qué una red neuronal predijo que una imagen correspondía a un perro y no a un gato es una tarea titánica, pero posiblemente esa sea una respuesta correcta. A la hora de clasificar imágenes, la interpretabilidad del modelo no parece ser un gran problema, pero cuando se utilizan modelos para determinar si otorgar o no un crédito, para predecir si un delincuente va a reincidir, o si una persona es apta o no para un trabajo, es crucial entender el “cómo” de esa toma de decisión.

La falta de interpretabilidad puede ocultar problemas subyacentes en los modelos, como sesgos. Si al determinar si una persona es apta o no para una vacante laboral, se le otorga un puntaje bajo a una hoja de vida simplemente porque corresponde a una mujer, se está incurriendo en sesgos. Estos sesgos provienen de los datos y, por lo tanto, de prejuicios históricos que han caracterizado a la humanidad en el pasado. Si no deseamos seguir perpetuando estos mismos prejuicios, debemos evitar que los modelos que utilicemos los reproduzcan.

Los problemas de sesgos en los modelos de crimen se han venido estudiando desde hace un tiempo. En particular, se han detectado múltiples sesgos en modelos de reincidencia. En 2019 se llevó a cabo un estudio comparativo de distintas formas de asignar valores de probabilidad de reincidencia de jóvenes criminales en Cataluña. Comparativamente, los modelos de aprendizaje entrenados muestran un rendimiento técnico superior a la metodología utilizada anteriormente, que consistía en un formulario que los jóvenes debían completar. Sin embargo, estos modelos aún presentan discriminación por género y origen étnico. El uso exclusivo de estos modelos basados en un mejor rendimiento técnico podría dar lugar a sesgos y perjudicar a ciertos grupos poblacionales debido a características que no están relacionadas con sus comportamientos criminales. Especialmente conocida, la herramienta COMPAS ha sido utilizada en todo Estados Unidos para ayudar a los jueces a tomar decisiones sobre la fianza al predecir el riesgo de reincidencia criminal de los acusados. Diversos estudios han demostrado que esta herramienta muestra sesgos y perjudica a ciertos grupos poblacionales, principalmente a personas menores de 25 años y afroamericanas.

Por otro lado, se sabe que los algoritmos de reconocimiento facial han mostrado, en su mayoría, disparidades de rendimiento entre personas de diferentes géneros y razas. Desde 2018, se ha estado estudiando el impacto que esto puede tener. Los algoritmos de inteligencia artificial aprenden de los datos con los que se entrenan. Si el 80% de las imágenes de entrenamiento corresponden a personas blancas, es muy probable que el algoritmo tenga un mejor rendimiento en este grupo poblacional. Los problemas de reconocimiento facial van más allá de la barrera tecnológica que podría proporcionar, por ejemplo, el reconocimiento facial en un dispositivo. Cuando estos algoritmos se combinan con políticas de seguridad, el daño puede ser enorme. En 2020, la Universidad de Harvard analizó el posible impacto en la sociedad al tener diferencias de rendimiento en los algoritmos para ciertos grupos poblacionales (Figura 1).

“La vigilancia continua induce miedo y daño psicológico, dejando a los sujetos vulnerables a abusos dirigidos, así como daño físico, al expandir sistemas de supervisión gubernamental utilizados para negar el acceso a la atención médica y el bienestar social. En un entorno de justicia penal, las tecnologías de reconocimiento facial que son inherentemente sesgadas en su precisión pueden identificar erróneamente a sospechosos, encarcelando a afroamericanos inocentes.” (Harvard University, 2020).

Figura 1. Harvard University. Racial Discrimination in Face Recognition Technology. Blog, Science Policy, Special Edition: Science policy and social justice.  (2020).

Estos descubrimientos sobre modelos de crimen nos llevan a reflexionar sobre los algoritmos de reconocimiento facial que se utilizan en nuestras ciudades. ¿Cómo podemos garantizar que los modelos actualmente empleados por la policía no incurran en sesgos? ¿Es posible confiar en estos algoritmos? ¿Qué medidas se han utilizado para mitigar sesgos y evitar perpetuar los estereotipos?

 S. Tolan, M. Miron, E. Gómez, C. Castillo. Why Machine Learning May Lead to Unfairness: Evidence from Risk Assessment for Juvenile Justice in Catalonia (2019)

Tags
Inteligencia artificial Tecnología

Newsletter

Obtén información sobre Ciencia de datos, Inteligencia Artificial, Machine Learning y más.

Artículos recientes

En los artículos de Blog, podrás conocer las últimas noticias, publicaciones, estudios y artículos de interés de la actualidad.

Machine Learning

Inferencia Robusta y Cuantificación de Incertidumbre para la Toma de Decisiones Basada en Datos

Los modelos de aprendizaje automático se han convertido en herramientas esenciales para la toma de decisiones en sectores críticos como la salud, las políticas públicas y las finanzas. Sin embargo, su aplicación práctica enfrenta dos grandes desafíos: el sesgo de selección en los datos y la cuantificación adecuada de la incertidumbre.

Redes Neuronales

El Potencial Impacto del Aprendizaje de Máquinas en el Diseño de las Políticas Públicas en Colombia: Una década de experiencias

Este blog es un resumen extendido del articulo Riascos, A. (2025).1 Desde el inicio de la llamada tercera ola de redes neuronales (Goodfellow et al., (2016)), en la primera década de este siglo, se ha generado una gran esperanza en las posibilidades de la inteligencia artificial para transformar todas las actividades humanas. Asimismo, se han levantado alertas sobre los riesgos que conlleva la introducción de esta nueva tecnología (Bengio et al., (2024)).

Deep Learning

Explorando Redes Neuronales en Grafos para la Clasificación de Asentamientos Informales en Bogotá, Colombia

Los asentamientos informales son definidos como áreas residenciales cuyos habitantes no poseen tenencia legal de las tierras, los barrios carecen de servicios básicos e infraestructura urbana y no cumplen con requisitos de planificación, así como se pueden encontrar en zonas de peligro ambiental y geográfico (ONU, 2015).

Tecnología

Reinforcement Learning para Optimización de Portafolios

En el contexto de los mercados financieros, la optimización de portafolios consiste en identificar la combinación óptima de activos para maximizar la relación retorno-riesgo. No obstante, esta toma de decisiones se realiza en un entorno de incertidumbre, ya que el comportamiento de los activos no es estacionario a lo largo del tiempo.

Tecnología

Clustering de datos genómicos

La secuenciación de RNA es una técnica que permite analizar la actividad de los genes en una muestra, como sangre, cerebro u otro tejido animal. Actualmente, es una de las herramientas más utilizadas en biología computacional y medicina, ya que facilita el estudio del impacto de las enfermedades en la expresión génica, lo que, a su vez, afecta la síntesis de proteínas y, en consecuencia, el funcionamiento celular.

Matemáticas del Descontento: Estudio de las Protestas Panameñas desde la Teoría de Grafos y Juegos

Durante la segunda mitad de 2022, Panamá enfrentó un hecho social sin precedentes. Si bien en el pasado ha habido protestas por parte de ciertos sectores sociales, nunca se había registrado una manifestación tan masiva que incluyera a distintos sectores de la sociedad panameña …