Equidad en modelos de inteligencia artificial: ¿Cómo mitigar la discriminación en presencia de múltiples atributos sensibles?

Supongamos que contamos con un modelo de aprendizaje de máquinas, f, que predice el precio de una prima de seguros, Y, para unos datos que incluyen un atributo sensible, como lo es el género. Puede existir una discriminación debido a un sesgo estadístico (injusticias del pasado o desbalance en la muestra), una correlación entre el atributo sensible y alguna variable explicativa, o por un sesgo intencional que se tenga.

Para evitar este sesgo, ha habido legislaciones (como por ejemplo, AI ACT –  Europe, 2024) que limitan, o incluso eliminan, el uso de ciertos atributos sensibles en modelos de inteligencia artificial. Sin embargo, simplemente eliminar estos atributos no es siempre la solución que genera el mejor nivel de justicia ni el mejor rendimiento del modelo. Existen enfoques de preprocesamiento (encargados de modificar los datos de entrada), procesamiento (añaden una penalidad de equidad) y de postprocesamiento (modifican la distribución univariada de las predicciones para crear una distribución intermedia, tal como se hace en Sequential Fairness)

Ha habido varios acercamientos de postprocesamiento para mitigar estos efectos si se tiene un atributo sensible (Single sensitive atribute, SSA). Pero, ¿qué podemos hacer si se cuenta con múltiples atributos sensibles (Multiple sensitive atribute, MSA)? Una posible aproximación es considerar la intersección de las distribuciones creadas por cada una de las combinaciones entre los atributos sensibles. Por ejemplo, si se tiene como atributos sensibles género (femenino y masculino), y origen étnico (negro y blanco), se considerarían estos cuatro casos con el enfoque de SSA:

Esto puede ser costoso computacionalmente entre más atributos sensibles se tengan, además, al añadir un nuevo atributo sensible se pierde el trabajo previamente hecho, porque se deben hallar distribuciones con las nuevas combinaciones. Otra aproximación (que es la que nos atañe en este blog) es la de Sequential Fairness. En resumen, este enfoque busca modificar las predicciones del modelo para que sean justas para el primer atributo sensible y, luego, volver a modificar estas nuevas predicciones para que sean justas para el segundo atributo (y en consecuencia también para el primero), y así sucesivamente. Como beneficios a este acercamiento tenemos que este es un proceso conmutativo (no importa el orden de la secuencia de los atributos para hacer al modelo justo), también es fácil añadir nuevos atributos sensibles y, además, hace más sencilla su interpretabilidad. 

La idea es hallar una distribución representativa que se encuentre entre las distribuciones condicionales para las predicciones de los atributos sensibles. Esto se logra usando el baricentro de Wasserstein, intentando minimizar el costo total de mover una distribución a otra mediante el transporte óptimo. El concepto del baricentro de Wasserstein extiende la idea de la paridad demográfica fuerte (Strong Demographic Parity) a múltiples atributos, la cual busca reducir la inequidad en grupos y requiere que las predicciones de un modelo sean independientes de los atributos sensibles. 

Es importante tener en cuenta que los métodos para reducir la injusticia de los modelos de predicción siempre tienen un costo en el rendimiento. Sin embargo, este acercamiento, al usar el baricentro de Wasserstein, hace que las métricas de accuracy y MSE tengan el menor daño posible. 

Equipy es un paquete de Python que implementa Sequential Fairness en las predicciones de modelos de predicción continua de aprendizaje de máquinas que contengan múltiples atributos sensibles, que usa el concepto del baricentro de Wasserstein para no afectar de gran manera el rendimiento del modelo y mitigar el sesgo y la discriminación que puede haber en las predicciones por tener atributos sensibles. 

* Este blog está basado en la presentación hecha durante el seminario de Quantil del día 8 de agosto de 2024 por Agathe Fernandes Machado titulado EquiPy: A Python package for Sequential Fairness using Optimal Transport with Applications in Insurance, en la que cuenta un poco sobre la investigación realizada por ella y su equipo en la Université du Québec à Montréal (UQAM) para implementar un paquete de Python que implementa sequential fairness para mitigar injusticias en presencia de múltiples atributos sensibles.
Tags
Gobierno Inteligencia artificial Tecnología

Newsletter

Obtén información sobre Ciencia de datos, Inteligencia Artificial, Machine Learning y más.

Artículos recientes

En los artículos de Blog, podrás conocer las últimas noticias, publicaciones, estudios y artículos de interés de la actualidad.

Justicia Algorítmica

Equidad en modelos de inteligencia artificial: ¿Cómo mitigar la discriminación en presencia de múltiples atributos sensibles?

Supongamos que contamos con un modelo de aprendizaje de máquinas, f, que predice el precio de una prima de seguros, Y, para unos datos que incluyen un atributo sensible, como lo es el género. Puede existir una discriminación debido a un …

Tecnología

Modelos de traducción para la preservación de las lenguas indígenas en Colombia

Según la Organización Nacional Indígena de Colombia (ONIC) existen 69 lenguas habladas en el territorio colombiano, entre las cuales 65 son lenguas indígenas. Esto posiciona a Colombia como el tercer país con mayor diversidad lingüística en el territorio latinoamericano, después de Brasil y México, con una notable concentración en las zonas de la Amazonía y el Vaupés…

Economía

Diseños óptimos para subastas de electricidad

Esta entrada de blog está basada en mi tesis de maestría en ingeniería industrial y economía en la Universidad de los Andes, titulada Optimal Design for Electricity Auctions: A Deep learning approach.

Tecnología

Víctimas Invisibles: la estimación del subregistro en el Conflicto Armado

El conflicto armado interno en Colombia representa una gran porción en la historia del país. La disputa por poder y control territorial entre los distintos grupos armados y las instituciones estatales ha desatado la violación de derechos humanos.

Justicia Algorítmica

Trade-off entre justicia y ajuste: un caso de estudio de crimen

El estudio de la justicia algorítmica surge en 2011 con Cynthia Dwork [1], quien se basó en el principio de igualdad de oportunidades: todas las personas, sin importar sus características, deben poder acceder a las mismas oportunidades y beneficios.

Tecnología

Evaluación De Políticas Bajo Ruido Markoviano Mediante El Algoritmo De Online Bootstrap Inference

Imagínese poder abstraer el mundo de tal forma que sea posible evaluar cuantitativamente el beneficio que se obtiene de tomar ciertas acciones a lo largo del tiempo. La buena noticia es que esto no es algo descabellado, de hecho una de las maneras de hacerlo es usando la teoría alrededor del Aprendizaje Reforzado (RL).