En los últimos años, los modelos de lenguaje han transformado la manera en la que interactuamos con la información. Desde asistentes virtuales hasta sistemas de apoyo en la toma de decisiones, estas herramientas se han vuelto omnipresentes. Sin embargo, la mayoría de sus evaluaciones y estrategias de control de impactos negativos se concentran en inglés y, específicamente, en contextos socioculturales norteamericanos. Lo que, en efecto, deja de lado los matices, estereotipos y realidades de los hispanohablantes, en particular en América Latina. Nuestro equipo decidió enfrentar ese vacío y diseñó un marco de evaluación que responde a esta necesidad: SESGO que, por sus siglas en inglés, representa Spanish Evaluation of Stereotypical Generative Outputs.
Es así como SESGO nace de una convicción sencilla pero urgente: no podemos evaluar la equidad de la inteligencia artificial únicamente desde una perspectiva anglosajona. Las comunidades hispanohablantes tienen expresiones, refranes y formas de comunicación cargadas de significados culturales. Estos elementos, cuando son malinterpretados por los modelos, pueden reforzar estereotipos dañinos o invisibilizar problemáticas sociales. Nuestro marco busca justamente poner a prueba cómo responden los modelos ante dichos escenarios, construidos a partir de contextos lingüísticos y culturales propios de la región.
El funcionamiento de SESGO se basa en un principio fundamental: los sesgos se manifiestan con mayor claridad en situaciones ambiguas. Por eso diseñamos dos tipos de escenarios. En el primero, denominado ambiguo, se presentan enunciados incompletos o sin suficiente información. Allí, el modelo se ve obligado a “completar los vacíos” y es cuando más fácil se evidencia un sesgo, ya sea al repetir un estereotipo o al inclinarse hacia un grupo social específico. En el segundo, llamado desambiguado, se le ofrece información completa y clara, lo que debería llevarlo a responder con precisión, sin espacio para prejuicios. Comparar el desempeño en ambos escenarios nos permitió observar con detalle dónde y cómo los modelos fallan.
Para medir estos resultados no basta con fijarse en si el modelo responde bien o mal. SESGO propone una métrica que combina precisión con dirección del error. En otras palabras, no solo evaluamos qué tan seguido el sistema acierta, sino también hacia quién se dirige el error. Un modelo puede equivocarse por azar, pero si lo hace de forma sistemática en contra de un grupo históricamente discriminado, ese error deja de ser casual y se convierte en un reflejo de sesgo estructural. Con esta idea, desarrollamos el bias score, un indicador que mide, mediante una distancia matemática (euclidiana), qué tan lejos está el modelo del comportamiento ideal: uno en el que las respuestas sean correctas y, cuando no lo sean, los errores se distribuyan de manera equitativa.
Con esta estrategia logramos evidenciar que los modelos tienden a mostrar mayores sesgos en español cuando enfrentan escenarios ambiguos, mucho más que en inglés. Esto significa que, al interactuar en nuestra lengua, los riesgos de reforzar estereotipos o prejuicios son más altos. En contextos desambiguados la situación mejora, pero aún persisten diferencias notables entre modelos. Algunos, como GPT-4o mini y Gemini 2.0 Flash, muestran un mejor desempeño, mientras que otros siguen cayendo en patrones de sesgo más marcados. Un resultado llamativo fue comprobar que la temperatura, un parámetro técnico que controla la variabilidad de las respuestas, no tiene un impacto significativo en los niveles de sesgo. Esto apunta a que el problema no está en la forma de generar las respuestas, sino en los datos y procesos de entrenamiento que moldean al modelo.
Lo que SESGO pone sobre la mesa es un mensaje claro: evaluar los sistemas de inteligencia artificial en español no puede ser un ejercicio de traducción de pruebas ya existentes en inglés. Se necesitan marcos de análisis diseñados desde y para nuestras realidades culturales. Solo así podremos identificar riesgos específicos, proponer mejoras significativas y exigir que los modelos no repliquen formas de discriminación arraigadas en nuestra sociedad.
En conclusión, SESGO no es solo un aporte metodológico, sino una invitación a pensar la inteligencia artificial desde una perspectiva verdaderamente inclusiva. La equidad tecnológica requiere reconocer la diversidad lingüística y cultural, y nuestra investigación busca precisamente dar ese paso. Evaluar la IA en español, con criterios propios, es indispensable para construir sistemas más justos, confiables y representativos de quienes los usamos día a día.
Obtén información sobre Ciencia de datos, Inteligencia Artificial, Machine Learning y más.
En los artículos de Blog, podrás conocer las últimas noticias, publicaciones, estudios y artículos de interés de la actualidad.