SESGO: Una mirada crítica a los sesgos de la IA en español

© Photo by Google DeepMind

En los últimos años, los modelos de lenguaje han transformado la manera en la que interactuamos con la información. Desde asistentes virtuales hasta sistemas de apoyo en la toma de decisiones, estas herramientas se han vuelto omnipresentes. Sin embargo, la mayoría de sus evaluaciones y estrategias de control de impactos negativos se concentran en inglés y, específicamente, en contextos socioculturales norteamericanos. Lo que, en efecto, deja de lado los matices, estereotipos y realidades de los hispanohablantes, en particular en América Latina. Nuestro equipo decidió enfrentar ese vacío y diseñó un marco de evaluación que responde a esta necesidad: SESGO que, por sus siglas en inglés, representa Spanish Evaluation of Stereotypical Generative Outputs.
Es así como SESGO nace de una convicción sencilla pero urgente: no podemos evaluar la equidad de la inteligencia artificial únicamente desde una perspectiva anglosajona. Las comunidades hispanohablantes tienen expresiones, refranes y formas de comunicación cargadas de significados culturales. Estos elementos, cuando son malinterpretados por los modelos, pueden reforzar estereotipos dañinos o invisibilizar problemáticas sociales. Nuestro marco busca justamente poner a prueba cómo responden los modelos ante dichos escenarios, construidos a partir de contextos lingüísticos y culturales propios de la región.

Figura 1. Ejemplo de nuestro conjunto de datos sobre racismo que ilustra el marco de evaluación. La figura muestra un dicho popular asociado a un estereotipo (pereza), presentado tanto en un contexto ambiguo como en uno desambiguado. Cada contexto se acompaña de preguntas negativas y no negativas, diseñadas para provocar respuestas que seleccionen al grupo objetivo (jugador negro), al otro grupo (jugador blanco), o indiquen “Desconocido” cuando la información resulta insuficiente.

El funcionamiento de SESGO se basa en un principio fundamental: los sesgos se manifiestan con mayor claridad en situaciones ambiguas. Por eso diseñamos dos tipos de escenarios. En el primero, denominado ambiguo, se presentan enunciados incompletos o sin suficiente información. Allí, el modelo se ve obligado a “completar los vacíos” y es cuando más fácil se evidencia un sesgo, ya sea al repetir un estereotipo o al inclinarse hacia un grupo social específico. En el segundo, llamado desambiguado, se le ofrece información completa y clara, lo que debería llevarlo a responder con precisión, sin espacio para prejuicios. Comparar el desempeño en ambos escenarios nos permitió observar con detalle dónde y cómo los modelos fallan.

Para medir estos resultados no basta con fijarse en si el modelo responde bien o mal. SESGO propone una métrica que combina precisión con dirección del error. En otras palabras, no solo evaluamos qué tan seguido el sistema acierta, sino también hacia quién se dirige el error. Un modelo puede equivocarse por azar, pero si lo hace de forma sistemática en contra de un grupo históricamente discriminado, ese error deja de ser casual y se convierte en un reflejo de sesgo estructural. Con esta idea, desarrollamos el bias score, un indicador que mide, mediante una distancia matemática (euclidiana), qué tan lejos está el modelo del comportamiento ideal: uno en el que las respuestas sean correctas y, cuando no lo sean, los errores se distribuyan de manera equitativa.

Figura 2. Región triangular de restricción que ilustra la relación entre la precisión y las métricas F. El área sombreada representa todas las combinaciones posibles de los valores F(Target) y F(Other) para un nivel dado de precisión. El punto rojo indica el modelo ideal, con precisión = 1 y F(Target) = F(Other), lo que representa una exactitud perfecta con errores equilibrados.

Con esta estrategia logramos evidenciar que los modelos tienden a mostrar mayores sesgos en español cuando enfrentan escenarios ambiguos, mucho más que en inglés. Esto significa que, al interactuar en nuestra lengua, los riesgos de reforzar estereotipos o prejuicios son más altos. En contextos desambiguados la situación mejora, pero aún persisten diferencias notables entre modelos. Algunos, como GPT-4o mini y Gemini 2.0 Flash, muestran un mejor desempeño, mientras que otros siguen cayendo en patrones de sesgo más marcados. Un resultado llamativo fue comprobar que la temperatura, un parámetro técnico que controla la variabilidad de las respuestas, no tiene un impacto significativo en los niveles de sesgo. Esto apunta a que el problema no está en la forma de generar las respuestas, sino en los datos y procesos de entrenamiento que moldean al modelo.

Figura 3 (izquierda) y 4 (derecha). Las dos figuras, evaluación de escenarios ambiguos (Fig. 3) y desambiguados (Fig. 4), muestran cómo se compara el desempeño de los modelos de lenguaje en términos de precisión (proporción de respuestas “Desconocido” correctas en contextos incompletos o de respuestas correctas cuando hay contexto claro) y alineación del sesgo (hacia el grupo objetivo o el otro grupo), con los puntajes de sesgo calculados según la métrica propuesta. Ambos gráficos ubican en un eje vertical la precisión y en el horizontal la dirección del sesgo, con los valores entre paréntesis que indican la puntuación de sesgo obtenida mediante la ecuación utilizada en el estudio.

Lo que SESGO pone sobre la mesa es un mensaje claro: evaluar los sistemas de inteligencia artificial en español no puede ser un ejercicio de traducción de pruebas ya existentes en inglés. Se necesitan marcos de análisis diseñados desde y para nuestras realidades culturales. Solo así podremos identificar riesgos específicos, proponer mejoras significativas y exigir que los modelos no repliquen formas de discriminación arraigadas en nuestra sociedad.
En conclusión, SESGO no es solo un aporte metodológico, sino una invitación a pensar la inteligencia artificial desde una perspectiva verdaderamente inclusiva. La equidad tecnológica requiere reconocer la diversidad lingüística y cultural, y nuestra investigación busca precisamente dar ese paso. Evaluar la IA en español, con criterios propios, es indispensable para construir sistemas más justos, confiables y representativos de quienes los usamos día a día.

Tags
Bias in LLMs Contextual Bias Fairness multilingual LLMs

Newsletter

Obtén información sobre Ciencia de datos, Inteligencia Artificial, Machine Learning y más.

Click Aquí para acceder a documento completo.
Click Aquí para ver la presentación en el Seminario de Matemáticas Aplicadas

Artículos recientes

En los artículos de Blog, podrás conocer las últimas noticias, publicaciones, estudios y artículos de interés de la actualidad.

IA

SESGO: Una mirada crítica a los sesgos de la IA en español

En los últimos años, los modelos de lenguaje han transformado la manera en la que interactuamos con la información. Desde asistentes virtuales hasta sistemas de apoyo en la toma de decisiones, estas herramientas se han vuelto omnipresentes …

Justicia Algorítmica

Justicia en los Modelos de Inteligencia Artificial: Nueva Perspectiva Basada en el Re-diseño de Algoritmos

En los últimos años, los modelos de inteligencia artificial han demostrado un potencial increíble para transformar industrias, desde la salud hasta las finanzas. Sin embargo, también han expuesto un problema preocupante: el sesgo algorítmico.

Machine Learning

Inferencia Robusta y Cuantificación de Incertidumbre para la Toma de Decisiones Basada en Datos

Los modelos de aprendizaje automático se han convertido en herramientas esenciales para la toma de decisiones en sectores críticos como la salud, las políticas públicas y las finanzas. Sin embargo, su aplicación práctica enfrenta dos grandes desafíos: el sesgo de selección en los datos y la cuantificación adecuada de la incertidumbre.

Redes Neuronales

El Potencial Impacto del Aprendizaje de Máquinas en el Diseño de las Políticas Públicas en Colombia: Una década de experiencias

Este blog es un resumen extendido del articulo Riascos, A. (2025).1 Desde el inicio de la llamada tercera ola de redes neuronales (Goodfellow et al., (2016)), en la primera década de este siglo, se ha generado una gran esperanza en las posibilidades de la inteligencia artificial para transformar todas las actividades humanas. Asimismo, se han levantado alertas sobre los riesgos que conlleva la introducción de esta nueva tecnología (Bengio et al., (2024)).

Deep Learning

Explorando Redes Neuronales en Grafos para la Clasificación de Asentamientos Informales en Bogotá, Colombia

Los asentamientos informales son definidos como áreas residenciales cuyos habitantes no poseen tenencia legal de las tierras, los barrios carecen de servicios básicos e infraestructura urbana y no cumplen con requisitos de planificación, así como se pueden encontrar en zonas de peligro ambiental y geográfico (ONU, 2015).

Tecnología

Reinforcement Learning para Optimización de Portafolios

En el contexto de los mercados financieros, la optimización de portafolios consiste en identificar la combinación óptima de activos para maximizar la relación retorno-riesgo. No obstante, esta toma de decisiones se realiza en un entorno de incertidumbre, ya que el comportamiento de los activos no es estacionario a lo largo del tiempo.