Investigación y desarrollo · Seminarios
Este estudio aborda la falta de evaluaciones de sesgo en modelos de lenguaje grandes (LLMs) para el español, especialmente en contextos latinoamericanos. Propone un marco culturalmente adaptado que integra expresiones y estereotipos regionales en cuatro categorías: género, raza, clase socioeconómica y origen nacional.
A partir de un dataset con más de 4 000 prompts, se introduce una métrica que combina precisión y dirección del error para evaluar simultáneamente rendimiento y sesgo en contextos ambiguos y claros. Los resultados muestran que las técnicas de mitigación diseñadas para inglés no funcionan igual de bien en español y que los patrones de sesgo son consistentes incluso con diferentes configuraciones de temperatura.
El marco es flexible, lo que permite incorporarlo a nuevos idiomas, estereotipos y categorías, contribuyendo a evaluaciones de IA más justas y culturalmente conscientes.
YouTube – Quantil Matemáticas Aplicadas
1. Presentación
Obtén información sobre Ciencia de datos, Inteligencia Artificial, Machine Learning y más.